Google compie 25 anni nel segno dell’AI
Indirizzo copiato
Dall’introduzione del machine learning per correggere l’ortografia delle query nella Ricerca, nel 2001, fino alle reti Transformer, passando per BERT, AlphaFold, TensorFlow, per arrivare a Bard e a PaLM 2
Pubblicato il 27 set 2023
In occasione del 25° compleanno di Google, ripercorriamo alcune delle tappe dell’AI più importanti fino ad ora del gigante del Web.
Indice degli argomenti:
- 2001: il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query
- 2006: Google Traduttore
- 2015: TensorFlow per l’AI democratica
- 2016: AlphaGo
- 2016: le TPU permettono un’implementazione dell’AI più rapida ed efficiente
- 2017: Google Research introduce Transformer
- 2018: BERT aiuta la Ricerca a comprendere meglio le query
- 2020: AlphaFold risolve il problema del ripiegamento proteico
- 2023: Bard agevola la collaborazione con l’AI generativa
- 2023: PaLM 2
- Il futuro
2001: il machine learning aiuta gli utenti della Ricerca Google a correggere l’ortografia delle query
Larry Page, il co-fondatore di Google, ha detto: “Il motore di ricerca perfetto deve comprendere esattamente cosa intendi e offrirti in risposta esattamente ciò di cui hai bisogno”. Google ha fatto sua questa vision quando ha iniziato a usare per la prima volta una versione semplice di machine learning per suggerire l’ortografia migliore per le ricerche web. Anche se la query contiene errori, gli utenti possono comunque ottenere la risposta che cercano.
WHITEPAPER
Magazzino 4.0: come automatizzare la logistica in entrata
Smart logistic
Smart manufactoring
Inizio modulo
Leggi l'informativa sulla privacy
E-mail*
- Acconsento alla comunicazione dei dati a terzi appartenenti ai seguenti settori merceologici: servizi (tra cui ICT/digitali), manifatturiero, commercio, pubblica amministrazione. I dati verranno trattati per finalità di marketing tramite modalità automatizzate e tradizionali di contatto (il tutto come specificato nell’informativa)
Fine modulo
2006: Google Traduttore
Cinque anni dopo, Google ha lanciato Google Traduttore, che usa il machine learning per tradurre automaticamente diverse lingue. Le prime traduzioni sono state dall’arabo all’inglese, e viceversa. Oggi Google Traduttore supporta 133 lingue parlate da milioni di persone in tutto il mondo. Questa tecnologia è in grado di tradurre testi, immagini e perfino conversazioni in tempo reale, abbattendo le barriere linguistiche nella comunità globale, aiutando le persone a comunicare ed estendendo l’accesso alle informazioni come mai era accaduto prima.
2015: TensorFlow per l’AI democratica
L’introduzione di TensorFlow, un nuovo framework di machine learning open source, ha reso l’AI più accessibile, scalabile ed efficiente. Ha inoltre contribuito ad accelerare il ritmo della ricerca e dello sviluppo dell’AI a livello mondiale. TensorFlow è ora uno dei framework di machine learning più noti ed è stato usato per sviluppare una vasta gamma di applicazioni, dal riconoscimento delle immagini all’elaborazione del linguaggio naturale, fino alla traduzione automatica.
2016: AlphaGo
Nell’ambito della Google DeepMind Challenge Match, AlphaGo è diventato il primo programma di AI a battere un campione mondiale umano di Go, un complesso gioco da tavolo che in precedenza era ritenuto fuori dalla portata dei computer. Questa vittoria leggendaria ha dimostrato il potenziale che il deep learning ha nel risolvere problemi complessi che si pensava fossero impossibili per i computer. La vittoria di AlphaGo su Lee Sedol, uno dei migliori giocatori di Go al mondo, ha innescato una conversazione globale sul futuro dell’AI e ha dimostrato che i sistemi di AI possono imparare a padroneggiare giochi complessi che richiedono creatività e pensiero strategico.
2016: le TPU permettono un’implementazione dell’AI più rapida ed efficiente
Le Tensor Processing Unit, o TPU, sono chip progettati su misura che inventati appositamente per il machine learning e ottimizzati per TensorFlow. Sono in grado di addestrare ed eseguire modelli AI molto più velocemente rispetto ai chip tradizionali e sono quindi ideali per applicazioni di AI su larga scala. La versione v5e, annunciata ad agosto 2023, è la Cloud TPU più versatile, scalabile e conveniente ideata fino ad oggi. La TPU v5e offre una performance di addestramento per dollaro raddoppiata e una performance di deduzione per dollaro fino a 2,5 volte maggiore per LLM e modelli AI in confronto alla Cloud TPU v4.
2017: Google Research introduce Transformer
Il documento di Google Research,”Attention Is All You Need” ha introdotto Transformer, una nuova architettura di rete neurale che ha aiutato nella comprensione del linguaggio. Prima di Transformer, i computer non erano molto capaci di comprendere il significato di frasi lunghe poiché non riuscivano a capire la relazione tra parole lontane. Transformer ha migliorato significativamente questo aspetto ed è diventato il fondamento dei sistemi di AI generativa e comprensione del linguaggio più notevoli di oggi. Transformer ha rivoluzionato il significato che la traduzione, il riassunto di testi, la risposta alle domande e perfino la generazione di immagini e la programmazione di robot hanno per i computer.
2018: BERT aiuta la Ricerca a comprendere meglio le query
La ricerca su Transformer ha portato all’introduzione di Bidirectional Encoder Representations from Transformers, in breve BERT, che aiuta la Ricerca a comprendere le query degli utenti meglio. Invece di puntare a comprendere le singole parole, gli algoritmi di BERT aiutano Google a capire le parole nel contesto. Ciò ha portato a un miglioramento significativo della qualità nella Ricerca e ha reso più semplice per gli utenti porre domande usando un linguaggio naturale invece di dover elencare parole chiave.
2020: AlphaFold risolve il problema del ripiegamento proteico
DeepMind ha fatto un balzo nel campo dell’AI con il suo sistema AlphaFold, che nel 2020 è stato riconosciuto come una soluzione al “problema del ripiegamento proteico”. Le proteine sono i mattoni degli esseri viventi e il modo in cui una proteina si ripiega determina la sua funzione. Gli errori di ripiegamento delle proteine possono causare malattie. Da 50 anni gli scienziati cercano di prevedere il modo in cui una proteina si ripiega allo scopo di comprendere e curare le malattie. AlphaFold fa proprio questo.
Nel 2022, tramite l’AlphaFold Protein Structure Database, Google ha condiviso gratuitamente con la comunità scientifica 200 milioni di strutture proteiche di AlphaFold, che coprono quasi tutti gli organismi sul pianeta di cui è stata determinata la sequenza del genoma. Più di un milione di ricercatori ha già usato questi dati per accelerare la creazione di nuovi vaccini per la malaria a tempo di record, fare avanzare la scoperta di farmaci contro il cancro e sviluppare enzimi che mangiano la plastica.
2023: Bard agevola la collaborazione con l’AI generativa
LaMDA, un modello LLM conversazionale rilasciato da Google Research nel 2021, ha aperto la strada a numerosi sistemi di AI generativa, tra cui Bard, che hanno catturato l’immaginazione a livello mondiale. Bard, che è stato lanciato a marzo 2023, è adesso disponibile nella maggior parte dei paesi e in oltre 40 lingue. Fra tutto ciò che è possibile fare con Bard, gli usi più popolari includono il brainstorming, la pianificazione di viaggi e la scrittura di contenuti creativi.
2023: PaLM 2
A maggio 2023 Google ha introdotto PaLM 2, il suo modello LLM di prossima generazione che ha migliorato le capacità multilinguistiche, di ragionamento e di programmazione. È più capace, veloce ed efficiente dei suoi predecessori ed è già alla base di oltre 25 prodotti e funzionalità di Google, tra cui Bard, le funzionalità di AI generativa in Gmail e in Workspace ed SGE, esperimento di integrazione profonda dell’AI generativa nella Ricerca Google. Google sta usando PaLM 2 per far avanzare la ricerca interna su aspetti quali la sanità e la cybersicurezza.
Il futuro
Con la guida dei principi dell’AI verso un approccio audace e responsabile, Google è già al lavoro su Gemini, il prossimo modello creato per le innovazioni future dei nostri prossimi 25 anni.
@RIPRODUZIONE RISERVATA
Valuta la qualità di questo articolo
Blockchain & Web3: il punto di vista dell’Osservatorio Blockchain & Distributed Ledge
- Scaricala gratis!DOWNLOAD
Aziende
Argomenti
Canali
Articoli correlati
- EVENTI
Google Cloud Next '23, tutte le novità AI annunciate
29 Ago 2023
di Pierluigi Sandonnini
Condividi
- AI GENERATIVA
Bard, tutto sul chatbot di Google che sfida Bing AI
19 Set 2023
di Pierluigi Sandonnini
Condividi
- GUIDA
Google Bard, cos'è e come si usa
12 Mag 2023
di Gioele Fierro
Condividi
Mercato IoT: le indicazioni dell’Osservatorio Internet of Things per continuare a crescere
- Scaricala gratis!DOWNLOAD
Articolo 1 di 4
NetworkDigital360 è il più grande network in Italia di testate e portali B2B dedicati ai temi della Trasformazione Digitale e dell’Innovazione Imprenditoriale. Ha la missione di diffondere la cultura digitale e imprenditoriale nelle imprese e pubbliche amministrazioni italiane.
Indirizzo
Via Copernico, 38
Milano - Italia
CAP 20125
Contatti
ICT&Strategy S.r.l. – Gruppo DIGITAL360 - Codice fiscale 05710080960 - P.IVA 05710080960 - © 2023 ICT&Strategy. ALL RIGHTS RESERVED