MODULO DIDATTICO

Reti Ricorrenti e Serie Temporali

Studio delle architetture di Deep Learning dedicate all’analisi e al processamento di sequenze di informazioni

LIVELLO

Da Beginner ad Advanced

PREREQUISITI

Python per la ds, Introduzione alle reti convolutive, Deep dive reti convolutive

DURATA TOTALE

7 ore

LEZIONI

100% on demand

PUOI TROVARE
QUESTO MODULO DIDATTICO IN

Descrizione

Dalle Reti Ricorrenti vanilla ai modelli Transformers, passando in analisi le principali architetture progettate per l’analisi e il processamento di serie temporali di dati. Studio delle architetture Long-Short Term Memory (LSTM) e Gated Recurrent Unit (GRU). Focus sui Meccanismi di Attenzione e sulla Codifica Posizionale tipica delle architetture Transformers e applicazioni in task di Natural Language Processing e Computer-Vision con architetture come Vision Transformers (ViT) e Compact Convolutional Transformers (CCT). Analisi delle archietture Seq-2-Seq e applicazione in contesti di machine-translation con l’applicazione di tecniche di addestramento di Teacher-Forcing.

Elenco lezioni del modulo

  • Introduzione alle Reti Neurali Artificiali Ricorrenti
  • Esercitazione RNN
  • Reti Long-Short Term Memory (LSTM)
  • Esercitazione LSTM
  • GRU e Bidirectional RNN
  • Esercitazione Comparazione di più RNN
  • Esercitazione Bidirectional LSTM
  • Generazione Testo Char Level - Guida Galattica per Autostoppisti
  • Generazione Testo Word Level - Guida Galattica per Autostoppisti
  • Dai Seq2Seq ai Transformers
  • Esercitazione Machine Translation con Seq2Seq e Teacher Forcing
  • Introduzione all'architettura Transformer
  • The Illustrated Transformer
  • Esercitazione Softmax
  • Esercitazione Transformer
  • Generazione Testo Char Level - Transformer - Guida Galattica per Autostoppisti
  • Time2Vec - codifica delle marche temporali
  • Time2Vec - Esercitazione

DOMANDE FREQUENTI