
I dati sono considerati una delle risorse più preziose ed importanti che ogni azienda possa avere. Per acquisirli esistono diversi metodi: si possono comprare, si possono generare internamente oppure si possono raccogliere dal web. È qui che entra in gioco il web scraping, una tecnica tanto potente quanto, spesso, discussa.
Ma cosa succede quando a questa pratica aggiungiamo anche l’Intelligenza Artificiale? Succede che l’estrazione dati diventa una sfida ancora più complessa, specialmente se si parla di etica e legalità.
Cos’è il web scraping e come funziona?
Immaginate di dover raccogliere informazioni specifiche da decine, centinaia, o addirittura migliaia di pagine web. Potreste farlo manualmente, oppure, potreste insegnare ad un programma a farlo per voi. Ecco, in sostanza, il web scraping (a volte chiamato anche web harvesting) è proprio questo: un processo automatizzato per estrarre informazioni specifiche da siti web. È come avere un assistente digitale incredibilmente veloce e meticoloso che naviga le pagine, individua i dati che vi interessano e li salva in un formato strutturato e utilizzabile, come un file CSV, un foglio Excel, un XML o un database.
Il processo di web scraping si articola generalmente in alcune fasi chiave:
- Lo scraper invia una richiesta HTTP ad un server web per ottenere il contenuto di una pagina.
- Analizza la struttura HTML della pagina (parsing) per identificare gli elementi con i dati desiderati.
- Localizza i vari elementi presenti nella pagina tramite tag HTML, classi CSS o espressioni XPath.
- Infine, estrae i dati e li archivia.
I dati archiviati possono essere utilizzati per analisi di mercato, monitoraggio prezzi, generazione di lead, ricerche accademiche, aggregazione di notizie e altro.
Sembra semplice, vero? In teoria, sì. In pratica, il web scraping tradizionale presenta diverse sfide. I siti web non sono creature statiche; cambiano continuamente la loro struttura, il che può mandare in tilt uno scraper non abbastanza flessibile.
Molti siti, tra l’altro, non vedono di buon occhio i bot che navigano tra le loro pagine, quindi implementano misure anti-scraping sempre più sofisticate: CAPTCHA, ban degli indirizzi IP, limiti di velocità delle richieste e la necessità di eseguire JavaScript per visualizzare il contenuto completo della pagina.
È una sorta di gioco del gatto col topo, dove gli scraper cercano di essere più furbi e i siti web di sbarrargli la strada. Ed è proprio qui che l’Intelligenza Artificiale inizia a fare la differenza.
Come si utilizza l’IA per l’estrazione dati automatizzata
L’integrazione dell’AI nell’estrazione dati automatizzata non significa semplicemente rendere gli scraper più veloci, ma più intelligenti, più adattabili e capaci di affrontare sfide che per gli script tradizionali sarebbero insormontabili.
Uno degli ambiti in cui l’AI brilla è il Natural Language Processing (NLP), ovvero la capacità delle macchine di comprendere ed interpretare il linguaggio umano. Nel web scraping, l’NLP può essere utilizzato per analizzare il contenuto testuale estratto, andando oltre la semplice raccolta di stringhe di caratteri.
Ad esempio, può identificare entità specifiche (nomi di persone, aziende, luoghi), comprendere il sentiment espresso in recensioni di prodotti o commenti sui social media, o estrarre relazioni significative tra concetti all’interno di grandi volumi di testo. Immaginate di dover analizzare migliaia di recensioni per capire cosa i clienti amano (o detestano) di un prodotto: l’NLP può automatizzare questo processo, fornendo insight preziosi in tempi record.
Poi c’è la Computer Vision, che permette alle macchine di “vedere” ed interpretare le immagini. Se i dati che vi interessano sono intrappolati in grafici, infografiche o persino in immagini di prodotti che contengono testo, la computer vision, spesso attraverso tecniche avanzate (es. OCR), può estrarli.
Ma il vero game-changer è il Machine Learning (ML), un sottoinsieme dell’AI che consente ai sistemi di imparare dai dati senza essere esplicitamente programmati.
Nel contesto del web scraping, gli algoritmi di ML possono essere addestrati a riconoscere schemi nei layout delle pagine web. Questo significa che se un sito cambia leggermente la sua struttura, un sistema basato su ML potrebbe essere in grado di adattarsi dinamicamente, continuando a identificare ed estrarre i campi dati corretti. Può imparare a distinguere una pagina prodotto da un articolo di blog o da una pagina di contatti, anche su siti mai visti prima, semplicemente analizzando la struttura e il contenuto.
Il Machine Learning può anche essere utilizzato per la pulizia e la validazione dei dati estratti, identificando anomalie o errori con una precisione superiore rispetto ai metodi basati su regole fisse. Addirittura, si stanno esplorando approcci di Reinforcement Learning, dove gli agenti di scraping imparano la strategia ottimale per estrarre dati da un sito attraverso un processo di tentativi ed errori, massimizzando l’efficienza e minimizzando la possibilità di essere bloccati.
Infine, non possiamo non menzionare l’impatto crescente delle AI Generative. Ad esempio, un LLM potrebbe aiutare a generare configurazioni di scraper più resilienti o a interpretare richieste di estrazione dati formulate in linguaggio naturale. Pensate a modelli come Deepseek, che eccellono nella comprensione e generazione di codice; non è difficile immaginare come tali capacità possano essere reindirizzate per comprendere la logica sottostante una pagina web e identificare i dati rilevanti in modo più semantico, piuttosto che basandosi unicamente su selettori sintattici. Questa evoluzione promette scraper non solo più robusti ai cambiamenti, ma anche più intuitivi da configurare ed utilizzare.
L’AI, quindi, trasforma il web scraping da un’attività prevalentemente meccanica ad un processo più cognitivo. Permette di affrontare siti web complessi, dinamici e ricchi di contenuti non strutturati, estraendo non solo dati, ma anche significato ed insight. L’automazione diventa più profonda, la resilienza maggiore e la capacità di estrarre valore dal web esponenzialmente più grande.
I vantaggi dello scraping
In generale, lo scraping apre le porte ad una quantità immensa di dati pubblici che, se raccolti ed analizzati correttamente, possono alimentare decisioni più informate, stimolare l’innovazione e fornire un vantaggio competitivo non indifferente.
Pensate alla possibilità di monitorare in tempo reale i prezzi dei competitor, di analizzare le tendenze di mercato emergenti leggendo tra le righe di forum e social media, o di costruire dataset unici per addestrare modelli di machine learning all’avanguardia. E quando l’AI entra nell’equazione, questi vantaggi vengono amplificati, in particolare per quanto riguarda l’efficienza e l’accuratezza.
Risparmio di tempo
Questo è forse il beneficio più immediato e universalmente apprezzato. Immaginate, come accennavamo prima, il compito titanico di raccogliere manualmente dati da centinaia di pagine web. Anche per un compito relativamente semplice, come estrarre nome e prezzo di prodotti da una manciata di siti di e-commerce, il tempo impiegato da un essere umano sarebbe considerevole. Uno scraper, anche uno tradizionale, può eseguire lo stesso compito in una frazione del tempo.
Se poi aggiungiamo l’Intelligenza Artificiale, il risparmio di tempo si estende oltre la semplice esecuzione. L’AI può ridurre il tempo di setup e manutenzione degli scraper, grazie alla sua capacità di adattarsi automaticamente a layout di pagina variabili. Questo significa meno interventi manuali per correggere script “rotti” ogni volta che un webmaster decide di cambiare un <div> di posto. Inoltre, la velocità con cui i dati possono essere estratti e aggiornati permette cicli di analisi molto più rapidi.
Questo libera preziose risorse umane da compiti ripetitivi ed alienanti, permettendo loro di concentrarsi sull’analisi strategica dei dati raccolti ed accelera l’intero processo decisionale. In un mondo che va sempre più veloce, poter disporre dei dati giusti al momento giusto può fare la differenza tra cogliere un’opportunità e vederla sfumare.
Maggiore precisione
Quando si raccolgono dati manualmente, specialmente per periodi prolungati o su grandi volumi, la stanchezza, la distrazione o la semplice svista possono portare ad imprecisioni, omissioni o errori di trascrizione. Questi errori, anche se apparentemente piccoli, possono accumularsi e distorcere le analisi successive, portando a conclusioni errate e, di conseguenza, a decisioni sbagliate.
Gli script di web scraping, per loro natura, sono molto più consistenti. Una volta programmati correttamente, eseguono le istruzioni alla lettera, senza stancarsi né distrarsi. L’introduzione dell’Intelligenza Artificiale eleva ulteriormente il livello di precisione. Gli algoritmi di ML, ad esempio, possono essere addestrati a identificare ed estrarre i dati rilevanti con maggiore acume, anche da pagine web disordinate o con strutture dati non convenzionali, dove un approccio basato su regole fisse potrebbe fallire o catturare informazioni spazzatura. L’AI può anche giocare un ruolo cruciale nella fase di pulizia e validazione dei dati post-estrazione. Può riconoscere pattern anomali, correggere formattazioni inconsistenti, identificare valori mancanti o palesemente errati, garantendo che il dataset finale sia il più pulito ed affidabile possibile.
Questa maggiore precisione è fondamentale, soprattutto se i dati raccolti sono destinati ad alimentare sistemi critici o, ad esempio, modelli di machine learning. Come ben sanno tutti coloro che si cimentano con il deep learning, la qualità dei dati di input (il famoso “garbage in, garbage out”) è direttamente proporzionale alla qualità dei risultati del modello. Uno scraper intelligente e preciso è il primo passo per costruire fondamenta solide per qualsiasi iniziativa data-driven.
Oltre a questi due pilastri, tempo e precisione, l’AI nello scraping porta con sé la capacità di estrarre dati da sorgenti prima inaccessibili (come immagini o testi molto complessi), una scalabilità superiore e la possibilità di ottenere insight più profondi grazie all’analisi semantica del contenuto. Insomma, non si tratta solo di fare le stesse cose più velocemente, ma di fare cose nuove e più complesse.
Tool AI per il web scraping
Il panorama degli strumenti per il web scraping potenziati dall’Intelligenza Artificiale è in rapida evoluzione, un vero e proprio far west tecnologico dove pionieri ed innovatori propongono soluzioni sempre più sofisticate. Non esiste “il tool perfetto” per ogni esigenza, ma piuttosto una gamma di opzioni che si adattano a diversi livelli di competenza tecnica, budget e complessità dei task di estrazione. Possiamo, tuttavia, provare a tracciare alcune categorie generali per orientarci in questa giungla di offerte.
Da un lato, troviamo librerie e framework di programmazione che integrano funzionalità di AI. Per chi ha familiarità con linguaggi come Python, esistono librerie che, oltre alle classiche funzionalità di parsing HTML e gestione delle richieste HTTP (pensiamo a Beautiful Soup, Scrapy, Selenium), iniziano ad incorporare moduli di machine learning per il riconoscimento intelligente degli elementi della pagina, l’adattamento ai cambiamenti di layout o l’interpretazione di dati non strutturati. Questi strumenti offrono massima flessibilità e controllo, ma richiedono competenze di programmazione ed una curva di apprendimento più ripida. Sono la scelta ideale per progetti complessi e personalizzati, dove è necessario “cucire” la soluzione su misura.
Un’altra categoria in forte crescita è quella delle piattaforme no-code o low-code che promettono di democratizzare il web scraping con AI. Questi strumenti, spesso basati su interfacce visuali intuitive, permettono agli utenti di “insegnare” allo scraper cosa estrarre semplicemente cliccando sugli elementi desiderati in una pagina web. L’Intelligenza Artificiale entra in gioco nel suggerire automaticamente i campi dati, nel gestire variazioni strutturali del sito o nell’interpretare dati complessi.
Alcune di queste piattaforme offrono funzionalità di “smart selection” che, grazie al ML, identificano pattern e relazioni tra gli elementi, rendendo l’estrazione più robusta anche se la pagina cambia. Sono ideali per utenti meno tecnici o per chi ha bisogno di mettere in piedi rapidamente dei processi di estrazione senza scrivere una riga di codice. Ovviamente, la flessibilità potrebbe essere minore rispetto ad una soluzione custom basata su librerie.
Ci sono poi servizi specializzati basati su AI che si concentrano sull’estrazione di tipi specifici di dati o sull’automazione di particolari aspetti dello scraping. Pensiamo a servizi che utilizzano tecniche di computer vision per estrarre dati da documenti PDF scansionati o da immagini di prodotti, oppure piattaforme che integrano NLP per analizzare automaticamente il sentiment di recensioni online o per categorizzare articoli di notizie. Questi servizi possono essere visti come “componenti AI” da integrare in un flusso di scraping più ampio.
Quando si sceglie un tool AI per il web scraping, è importante considerare diversi fattori:
- Valutare le proprie competenze tecniche, programmatori esperti o approccio no-code?
- Considerare il budget a disposizione, molte soluzioni avanzate sono a pagamento.
- Analizzare la complessità e la tipologia dei siti target, siti statici semplici o applicazioni web dinamiche e complesse?
- Definire la scalabilità richiesta, estrarre dati da poche pagine o da milioni?
- Identificare le specifiche funzionalità di AI ritenute cruciali per il progetto.
- Verificare la community di supporto, la documentazione e la frequenza degli aggiornamenti.
Ricordate, l’AI non è una bacchetta magica: anche il tool più avanzato richiede una comprensione chiara degli obiettivi e dei dati che si vogliono ottenere. A volte, per un sito semplice e stabile, un buon vecchio script Python potrebbe essere più che sufficiente, senza scomodare reti neurali e deep learning. L’importante è scegliere lo strumento giusto per il lavoro, non necessariamente il più “intelligente” sulla carta.
Il web scraping è legale?
Eccoci arrivati al nodo cruciale, la domanda da un milione di dollari: il web scraping è legale? La risposta breve, e forse un po’ frustrante tipica di ogni programmatore, è: dipende.
La risposta lunga è che ci addentriamo in un territorio giuridico complesso, sfumato e in continua evoluzione, dove le normative variano da paese a paese e dove l’interpretazione delle leggi esistenti può essere oggetto di dibattito. Non esiste un interruttore “legale/illegale” per il web scraping in sé; la sua liceità dipende da cosa si sta scansionando, come lo si sta facendo, perché lo si sta facendo e dove ci si trova.
Uno dei primi aspetti da considerare è il diritto d’autore (copyright). Molti contenuti presenti sul web sono protetti da copyright. Scansionare e riutilizzare questo materiale senza autorizzazione può costituire una violazione del diritto d’autore. Esistono eccezioni, come il “fair use” negli Stati Uniti o concetti simili in altre giurisdizioni, ma queste sono spesso interpretate in modo restrittivo, specialmente in contesti commerciali.
Poi ci sono i Termini di Servizio (ToS) del sito web, noti anche come “Terms and Conditions” o “Condizioni d’Uso”. Quasi tutti i siti web ne hanno una sezione, spesso sepolta in qualche link a piè di pagina, che gli utenti accettano implicitamente navigando sul sito. Molti ToS proibiscono esplicitamente il web scraping o l’uso di bot automatizzati. Violare i ToS non è di per sé un reato penale, ma costituisce una violazione contrattuale. Questo può portare a conseguenze come il blocco del vostro indirizzo IP, la chiusura di un account (se ne avete uno sul sito) o, nei casi più gravi e se il danno percepito dal proprietario del sito è significativo, azioni legali per inadempimento contrattuale.
Un altro elemento da non sottovalutare è il file robots.txt, un semplice file di testo che i webmaster usano per dare istruzioni ai crawler, come quelli dei motori di ricerca, su quali parti del sito non dovrebbero essere scansionate o indicizzate. Sebbene robots.txt non sia legalmente vincolante di per sé, ignorarlo è considerato una cattiva pratica e può essere usato come prova di un intento “ostile” o di una violazione dei ToS.
In alcune giurisdizioni, in particolare negli Stati Uniti, si è discusso del concetto di “trespass to chattels” (violazione del possesso di beni mobili). Questo principio legale, originariamente pensato per danni fisici a proprietà, è stato talvolta applicato al mondo digitale. L’idea è che un’attività di scraping eccessivamente aggressiva, che sovraccarica i server di un sito web e ne compromette le prestazioni per gli utenti legittimi, potrebbe essere considerata una forma di “danneggiamento” dell’infrastruttura del sito.
Una legge statunitense che ha avuto un impatto significativo sulle discussioni legali relative allo scraping è il Computer Fraud and Abuse Act (CFAA). Questa legge, nata per combattere l’hacking, penalizza l’accesso “non autorizzato” a un computer o ad un sistema informatico. Recenti sentenze, come il caso LinkedIn vs. hiQ Labs, hanno fornito alcuni chiarimenti importanti, suggerendo che lo scraping di dati pubblicamente accessibili (cioè, dati che non richiedono un login o il superamento di barriere tecniche di protezione) potrebbe non costituire una violazione del CFAA, anche se va contro i ToS del sito. Questa è un’area ancora in evoluzione e le interpretazioni possono cambiare.
Se poi i dati che state estraendo includono dati personali, la situazione si complica ulteriormente, specialmente in Europa con il GDPR (General Data Protection Regulation). Il GDPR impone regole molto severe sulla raccolta, il trattamento e la conservazione dei dati personali dei residenti nell’UE. Se il vostro scraper coinvolge nomi, indirizzi email, numeri di telefono, indirizzi IP (che possono essere considerati dati personali) o qualsiasi altra informazione riconducibile ad una persona fisica, dovete assicurarvi di avere una base giuridica valida per farlo (ad esempio, il consenso dell’interessato, un legittimo interesse che non prevalga sui diritti dell’individuo), rispettare i principi di minimizzazione dei dati, limitazione della finalità, trasparenza e sicurezza. Le sanzioni per la violazione del GDPR possono essere estremamente pesanti.
Infine, in UE esiste anche il diritto sui generis sulle banche di dati, che protegge le banche di dati che hanno richiesto un investimento sostanziale (finanziario, umano o tecnico) per la loro creazione, anche se i singoli dati contenuti non sono protetti da copyright. Estrarre una parte sostanziale di tale database potrebbe costituire una violazione.
L’introduzione dell’Intelligenza Artificiale nel processo di scraping non cambia di per sé il quadro legale di riferimento, ma può avere implicazioni indirette. Ad esempio, l’AI può rendere lo scraping più efficiente, su larga scala e più difficile da rilevare, il che potrebbe aumentare il rischio di impattare negativamente sui siti target o di raccogliere grandi quantità di dati, inclusi quelli personali, amplificando le problematiche legali e etiche.
In questo contesto, il nuovo AI Act europeo diventa particolarmente rilevante, poiché regolamenta lo sviluppo e l’uso dei sistemi di Intelligenza Artificiale, inclusi quelli potenzialmente impiegati per il web scraping. Questa normativa, che classifica le applicazioni AI in base al rischio, può imporre specifici obblighi di trasparenza, valutazione del rischio o conformità a seconda di come i dati estratti vengono usati o delle capacità del sistema AI di scraping.
La legalità del web scraping è un mosaico complesso. Prima di intraprendere qualsiasi attività di scraping significativa, soprattutto a fini commerciali, è fondamentale fare le proprie valutazioni, comprendere i rischi e, in caso di dubbi, consultare un legale esperto in materia di diritto digitale e privacy. L’ignoranza della legge, purtroppo, raramente è considerata una scusante valida.
Cosa devi sapere prima di fare web scraping: i consigli di Data Masters
Navigare nel mondo del web scraping, specialmente quando si aggiunge la potenza dell’AI, richiede non solo competenze tecniche ma anche una buona dose di buonsenso, etica e consapevolezza legale. Noi di Data Masters siamo entusiasti delle possibilità offerte dall’estrazione dati, ma crediamo fermamente in un approccio responsabile. Ecco quindi alcuni consigli pratici, il nostro “kit di sopravvivenza” per avventurarsi nello scraping senza trasformarsi involontariamente nel cattivo della storia.
- Innanzitutto, leggete, leggete, leggete i Termini di Servizio (ToS) del sito che intendete scansionare. Sì, lo sappiamo, sono lunghi, noiosi e scritti in un linguaggio che sembra pensato apposta per scoraggiare la lettura. Ma è lì che il proprietario del sito esplicita cosa è permesso e cosa no.
- Parallelamente, date sempre un’occhiata al file robots.txt. Anche se non è strettamente vincolante dal punto di vista legale, rispettare le direttive contenute in robots.txt è un segno di buona educazione digitale e può evitarvi parecchi problemi. È come chiedere il permesso prima di prendere qualcosa: spesso è apprezzato.
- Siate “educati” e rispettosi nei confronti del sito target. Questo significa limitare la frequenza delle vostre richieste. Non bombardate il server con centinaia di richieste al secondo. Questo potrebbe rallentare il sito per gli utenti legittimi o, peggio, farlo crashare.
- Molti scraper intelligenti, specialmente quelli che usano l’AI, possono adattare dinamicamente la loro velocità. Identificate il vostro bot impostando un User-Agent descrittivo. Questo permette al webmaster di sapere chi siete e, se necessario, di contattarvi. Se possibile, cercate di effettuare lo scraping durante le ore di minor traffico del sito, per minimizzare l’impatto.
- Concentratevi sui dati pubblici e facilmente accessibili. Evitate di tentare di scavalcare misure di sicurezza, di accedere a dati protetti da password, dietro paywall o in aree riservate del sito, a meno che non abbiate un’autorizzazione esplicita. Se per accedere a un dato dovete fare qualcosa che un utente normale non farebbe o non potrebbe fare, fermatevi e riflettete.
- Massima attenzione se avete a che fare con dati personali. Come abbiamo visto, il GDPR in Europa (e normative simili in altre parti del mondo) è molto severo. Prima di raccogliere qualsiasi informazione che possa identificare una persona, assicuratevi di avere una base legale solida per farlo. Comprendete e rispettate i principi di minimizzazione (raccogliete solo i dati strettamente necessari per il vostro scopo), limitazione della finalità (usateli solo per lo scopo dichiarato) e trasparenza. Se possibile, anonimizzate o pseudonimizzate i dati il prima possibile. Ricordate, la privacy è un diritto fondamentale.
- Non ripubblicate indiscriminatamente contenuto protetto da copyright. Estrarre fatti (come un prezzo, una data, un nome) è generalmente meno problematico che copiare e incollare interi articoli, immagini o descrizioni di prodotti. Se il vostro obiettivo è l’analisi, spesso non avete bisogno di replicare il contenuto parola per parola.
- Valutate sempre l’impatto della vostra attività di scraping. Chiedetevi: la mia attività sta danneggiando il sito target? Sto consumando una quantità sproporzionata delle loro risorse? Sto creando una concorrenza sleale basata sulla semplice appropriazione del loro lavoro? Un approccio etico va oltre la stretta legalità.
- Iniziate in piccolo e testate i vostri script su un numero limitato di pagine o su siti di test prima di scatenarli su larga scala. Questo vi aiuterà a identificare bug, a calibrare la velocità e a verificare che stiate estraendo i dati corretti senza causare problemi. Loggate le vostre attività di scraping: mantenete un registro di quali siti avete scansionato, quando, con quale frequenza e quali dati avete raccolto. Questo può essere utile per monitorare le vostre operazioni e, in caso di contestazioni, per dimostrare la vostra diligenza.
- Considerate se l’AI è davvero necessaria. L’Intelligenza Artificiale è uno strumento potente, ma non sempre indispensabile. Per siti semplici con strutture stabili, uno scraper tradizionale potrebbe essere più che sufficiente e più facile da implementare e mantenere. Usate l’AI strategicamente, dove apporta un reale valore aggiunto in termini di adattabilità, gestione della complessità o estrazione di insight profondi.
- Infine, prima di lanciarvi nello scraping, verificate se esistono alternative ufficiali, come le API (Application Programming Interfaces). Molte aziende forniscono API che permettono di accedere ai loro dati in modo strutturato, controllato e, soprattutto, legale e sostenibile. Le API sono quasi sempre la scelta preferibile, se disponibili e adatte alle vostre esigenze.
Un ultimo, fondamentale consiglio: queste sono indicazioni pratiche e di buonsenso, non consulenza legale. Le leggi e le loro interpretazioni cambiano, e ogni situazione è unica. Se avete dubbi sulla legalità delle vostre attività di web scraping, specialmente se operate su larga scala o a fini commerciali, consultate sempre un avvocato specializzato.
Il web scraping, specialmente se combinato con l’Intelligenza Artificiale, è una frontiera entusiasmante per l’accesso e l’analisi dei dati. Tuttavia, come ogni strumento potente, richiede di essere maneggiato con cura, responsabilità e consapevolezza.
Speriamo che questa guida vi abbia fornito una mappa utile per navigare questo affascinante territorio, bilanciando l’entusiasmo per l’automazione con il rispetto per le regole del gioco. E se siete pronti ad approfondire le tecniche di intelligenza artificiale che possono potenziare non solo lo scraping, ma ogni aspetto della vostra strategia dati, i nostri corsi sul deep learning potrebbero essere il prossimo passo ideale nel vostro viaggio.