Scrivici su WhatsApp
MODULO DIDATTICO

Reti Ricorrenti e serie Temporali

Studio delle architetture di Deep Learning dedicate all’analisi e al processamento di sequenze di informazioni

LIVELLO

Da Beginner ad Advanced

PREREQUISITI

Python per la ds, Introduzione alle reti convolutive, Deep dive reti convolutive

DURATA TOTALE

5 ore

LEZIONI

100% on demand

PUOI TROVARE
QUESTO MODULO DIDATTICO IN

Descrizione

Dalle Reti Ricorrenti vanilla ai modelli Transformers, passando in analisi le principali architetture progettate per l’analisi e il processamento di serie temporali di dati. Studio delle architetture Long-Short Term Memory (LSTM) e Gated Recurrent Unit (GRU). Focus sui Meccanismi di Attenzione e sulla Codifica Posizionale tipica delle architetture Transformers e applicazioni in task di Natural Language Processing e Computer-Vision con architetture come Vision Transformers (ViT) e Compact Convolutional Transformers (CCT). Analisi delle archietture Seq-2-Seq e applicazione in contesti di machine-translation con l’applicazione di tecniche di addestramento di Teacher-Forcing.

Elenco lezioni del modulo

  • Introduzione alle Reti Neurali Artificiali Ricorrenti
  • Esercitazione RNN
  • Reti Long-Short Term Memory (LSTM)
  • Esercitazione LSTM
  • GRU e Bidirectional RNN
  • Esercitazione Comparazione di più RNN
  • Esercitazione Bidirectional LSTM
  • Esercitazione Generazione Testo - char level
  • Esercitazione Generazione Testo - word level
  • Architettura Seq2Seq
  • Esercitazione Machine Translation con Seq2Seq e Teacher Forcing
  • Meccanismi di Attenzione
  • Transformer
  • Esercitazione Softmax
  • Esercitazione Transformer
  • LIVE
  • LIVE

DOMANDE FREQUENTI