banner
Centro notizie
Articolato e competente nelle loro competenze.

In che modo Google sta accelerando lo sviluppo del machine learning

Nov 23, 2023

Unisciti ai massimi dirigenti a San Francisco l'11 e il 12 luglio per scoprire come i leader stanno integrando e ottimizzando gli investimenti nell'intelligenza artificiale per il successo. Saperne di più

Accelerare lo sviluppo del machine learning (ML) e dell'intelligenza artificiale (AI) con prestazioni e costi ottimizzati è un obiettivo chiave per Google.

Google ha dato il via alla sua conferenza Next 2022 questa settimana con una serie di annunci sulle nuove funzionalità di intelligenza artificiale nella sua piattaforma, tra cui la visione artificiale come servizio con Vertex AI vision e la nuova iniziativa ML open source OpenXLA. In una sessione all'evento Next 2022, Mikhail Chrestkha, product manager outbound presso Google Cloud, ha discusso ulteriori miglioramenti incrementali dell'intelligenza artificiale, incluso il supporto per il framework del sistema di raccomandazione Nvidia Merlin, l'inferenza batch AlphaFold e il supporto TabNet.

[Segui la copertura in corso di VentureBeat su Google Cloud Next 2022 »]

Gli utenti della nuova tecnologia hanno dettagliato i loro casi d'uso e le loro esperienze durante la sessione.

Trasforma il 2023

Unisciti a noi a San Francisco l'11 e il 12 luglio, dove i massimi dirigenti condivideranno come hanno integrato e ottimizzato gli investimenti nell'intelligenza artificiale per raggiungere il successo ed evitare le insidie ​​​​comuni.

"Avere accesso a una solida infrastruttura di intelligenza artificiale sta diventando un vantaggio competitivo per ottenere il massimo valore dall'intelligenza artificiale", ha affermato Chrestkha.

TabNet è un approccio approfondito all'apprendimento dei dati tabulari che utilizza tecniche di trasformazione per contribuire a migliorare la velocità e la pertinenza.

Chrestkha ha spiegato che TabNet è ora disponibile nella piattaforma Google Vertex AI, il che rende più semplice per gli utenti costruire modelli spiegabili su larga scala. Ha osservato che l'implementazione di TabNet da parte di Google selezionerà automaticamente le trasformazioni di funzionalità appropriate in base ai dati di input, alla dimensione dei dati e al tipo di previsione per ottenere i migliori risultati.

TabNet non è un approccio teorico per migliorare le previsioni dell'intelligenza artificiale; è un approccio che mostra già risultati positivi nei casi d’uso del mondo reale. Tra i suoi primi implementatori c’è Uber.

Kai Wang, senior product manager di Uber, ha spiegato che una piattaforma creata dalla sua azienda chiamata Michelangelo gestisce oggi il 100% dei casi d'uso ML di Uber. Tali casi d'uso includono l'orario di arrivo stimato (ETA), il tempo stimato di consegna (ETD) di UberEats e l'abbinamento utente e autista.

L'idea di base alla base di Michelangelo è fornire agli sviluppatori ML di Uber un'infrastruttura su cui distribuire i modelli. Wang ha affermato che Uber valuta e integra costantemente componenti di terze parti, investendo selettivamente in aree chiave della piattaforma per costruire internamente. Uno degli strumenti fondamentali di terze parti su cui fa affidamento Uber è Vertex AI, per supportare la formazione ML.

Wang ha osservato che Uber ha valutato TabNet con casi d'uso reali di Uber. Un esempio di caso d'uso è il modello dei tempi di preparazione di UberEat, che viene utilizzato per stimare quanto tempo impiega un ristorante per preparare il cibo dopo aver ricevuto un ordine. Wang ha sottolineato che il modello del tempo di preparazione è uno dei modelli più critici in uso oggi presso UberEats.

"Abbiamo confrontato i risultati di TabNet con il modello di base e il modello TabNet ha dimostrato un grande miglioramento in termini di prestazioni del modello", ha affermato Wang.

Cohere sviluppa piattaforme che aiutano le organizzazioni a trarre vantaggio dalle funzionalità di elaborazione del linguaggio naturale (NLP) abilitate dai modelli linguistici di grandi dimensioni (LLM).

Cohere sta anche beneficiando delle innovazioni AI di Google. Siddhartha Kamalakara, un ingegnere di machine learning presso Cohere, ha spiegato che la sua azienda ha creato un proprio framework di formazione ML proprietario chiamato FAX, che ora utilizza ampiamente i chip acceleratori AI TPUv4 di Google Cloud. Ha spiegato che il compito di FAX è consumare miliardi di token e addestrare modelli piccoli come centinaia di milioni di parametri fino a centinaia di miliardi.

"I pod TPUv4 sono alcuni dei supercomputer IA più potenti al mondo e un pod V4 completo ha 4.096 chip", ha affermato Kamalakara. "TPUv4 ci consente di addestrare modelli linguistici di grandi dimensioni molto rapidamente e di offrire immediatamente tali miglioramenti ai clienti."