Suggerimenti
Qui di seguito alcuni testi suggeriti
Il volume presenta un quadro generale dei principi teorici e delle metodologie pratiche della linguistica computazionale, e fornisce gli strumenti per la corretta comprensione e implementazione dei modelli di machine learning e di intelligenza artificiale per l’analisi del linguaggio naturale.
Il testo si articola in tre parti: la prima è una panoramica delle nozioni fondamentali, la seconda si focalizza sui metodi di machine learning per il natural language processing (NLP), sia sui modelli più tradizionali, sia su quelli basati su reti neurali; la terza parte è dedicata ai modelli fondazionali, che rappresentano l’approccio metodologico più recente nell’ambito del NLP.
La trattazione teorica è integrata da approfondimenti su temi applicativi delle tecnologie in contesti reali e da risorse online come tutorial per l’apprendimento del linguaggio di programmazione Python applicato al NLP. Al termine di ciascun capitolo sono previste domande sui principali argomenti trattati per l’autovalutazione delle conoscenze acquisite.
La sequenza degli argomenti segue un percorso graduale di sviluppo dai concetti di base fino ai temi più avanzati; tuttavia, ogni capitolo è concepito come un’unità autonoma, offrendo così maggiore flessibilità nell’organizzazione dello studio.
Introduzione. Metodologie di base: Dati linguistici - Annotare i dati linguistici - Probabilità e linguaggio - Language Model - Parole e vettori: semantica distribuzionale. Metodi di apprendimento automatico: Machine learning: come imparare dai dati - Machine learning supervisionato feature-based - Reti neurali - Modelli neurali di semantica distribuzionale - Valutazione dei modelli. Modelli fondazionali: Neural language model - Un modello per tanti task - Large language model - Modelli multimodali. Bibliografia. Soluzioni.
Alessandro Lenci è professore ordinario all’Università di Pisa dove insegna Linguistica computazionale e dirige il Laboratorio di Linguistica Computazionale (CoLing Lab). Le sue principali aree di ricerca sono la semantica distribuzionale e le sue applicazioni in linguistica e nelle scienze cognitive, e lo sviluppo di strumenti e risorse linguistiche per il Natural Language Processing e le Digital Humanities. Socio fondatore dell’Associazione Italiana di Linguistica Computazionale, nel 2020 ha ricevuto il “10 year Test-of-Time-Award” dall’Association for Computational Linguistics.
Serena Auriemma è PhD in linguistica e membro del CoLing Lab dell’Università di Pisa. I suoi interessi di ricerca vertono sull’impiego di language model su linguaggi settoriali e per lo sviluppo di applicazioni di NLP per domini specifici.
Martina Miliani è PhD in linguistica e membro del CoLing Lab dell’Università di Pisa, insegna Natural Language Processing all’Università di Palermo. I suoi ambiti di ricerca sono il natural language inference, la semplificazione e la leggibilità automatica dei testi.
Qui di seguito alcuni testi suggeriti