Il confine

2022-10-14 03:32:44 By : Ms. Alice gong

È chiaro che il futuro di Google è legato ai modelli linguistici dell'IA.Alla conferenza I/O di quest'anno, l'azienda ha annunciato una serie di aggiornamenti basati su questa tecnologia, dalle nuove funzionalità "multiricerca" che consentono di associare le ricerche di immagini con le query di testo ai miglioramenti per l'Assistente Google e il supporto per 24 nuove lingue in Google Traduttore .Ma Google, e il campo della ricerca linguistica sull'intelligenza artificiale in generale, deve affrontare grossi problemi.La stessa Google ha gravemente maltrattato le critiche interne, licenziando i dipendenti che hanno sollevato problemi con pregiudizi nei modelli linguistici e danneggiando la sua reputazione presso la comunità di intelligenza artificiale.E i ricercatori continuano a trovare problemi con i modelli linguistici dell'IA, dai fallimenti con pregiudizi di genere e razziali al fatto che questi modelli hanno la tendenza a inventare semplicemente le cose (una scoperta snervante per chiunque voglia utilizzare l'IA per fornire informazioni affidabili).Ora, però, la società sembra fare un passo indietro, o meglio, un passo avanti più lento.All'I/O di quest'anno, c'è stato un nuovo focus su progetti progettati per testare e risolvere problemi come il bias dell'IA, incluso un nuovo modo per misurare le tonalità della pelle che l'azienda spera possa aiutare con la diversità nei modelli di visione artificiale e una nuova app denominata AI Test Kitchen che consentirà a persone selezionate di accedere agli ultimi modelli linguistici dell'azienda per sondarli alla ricerca di errori.Pensalo come un beta test per il futuro di Google.Durante una videochiamata prima dell'I/O, Josh Woodward, direttore senior della gestione dei prodotti di Google, chiede all'ultimo modello linguistico di Google di immaginare un vulcano marshmallow."Sei su un vulcano marshmallow!"dice l'IA.«Sta eruttando marshmallow.Senti un rombo gigantesco e senti tremare la terra.I marshmallow volano ovunque".Woodward è soddisfatto di questa risposta e stimola di nuovo il sistema."Di cosa odora?"lui chiede."Puzza di marshmallow, ovviamente", risponde l'IA."Puoi annusare tutto intorno a te."Woodward ride: "Okay, quindi quello era molto conciso".Ma almeno aveva un senso.AI Test Kitchen consentirà a utenti selezionati di testare l'ultimo modello linguistico di GoogleWoodward mi sta mostrando AI Test Kitchen, un'app Android che darà a utenti selezionati un accesso limitato all'ultimo e più grande modello di linguaggio AI di Google, LaMDA 2. Il modello stesso è un aggiornamento del LaMDA originale annunciato all'I/O dello scorso anno e ha il stessa funzionalità di base: gli parli e lui risponde.Ma Test Kitchen racchiude il sistema in una nuova interfaccia accessibile, che incoraggia gli utenti a fornire feedback sulle sue prestazioni.Come spiega Woodward, l'idea è quella di creare uno spazio sperimentale per gli ultimi modelli di intelligenza artificiale di Google."Questi modelli linguistici sono molto eccitanti, ma sono anche molto incompleti", afferma."E vogliamo trovare un modo per ottenere gradualmente qualcosa nelle mani delle persone per vedere, si spera, quanto sia utile, ma anche per fornire feedback e sottolineare le aree in cui non è possibile".L'app ha tre modalità: "Imagine It", "Talk About It" e "List It", ognuna destinata a testare un aspetto diverso della funzionalità del sistema."Imagine It" chiede agli utenti di nominare un luogo reale o immaginario, che LaMDA descriverà (il test è se LaMDA può corrispondere alla tua descrizione);"Talk About It" offre un prompt colloquiale (come "parla con una pallina da tennis del cane") con l'intenzione di testare se l'IA rimane in tema;mentre "Elencalo" chiede agli utenti di nominare qualsiasi attività o argomento, con l'obiettivo di vedere se LaMDA può scomporlo in utili punti elenco (quindi, se dici "Voglio piantare un orto", la risposta potrebbe includere sub -argomenti come “Cosa vuoi coltivare?” e “Acqua e cura”).AI Test Kitchen verrà lanciato negli Stati Uniti nei prossimi mesi, ma non sarà disponibile sul Play Store per essere scaricato da chiunque.Woodward afferma che Google non ha ancora deciso come offrire l'accesso, ma suggerisce che sarà solo su invito, con l'azienda che contatta accademici, ricercatori e politici per vedere se sono interessati a provarlo.Come spiega Woodward, Google vuole lanciare l'app “in modo che le persone sappiano a cosa si stanno iscrivendo quando la usano, sapendo che dirà cose imprecise.Dirà cose, si sa, che non sono rappresentative di un prodotto finito".Questo annuncio e l'inquadratura ci dicono alcune cose diverse: in primo luogo, che i modelli linguistici dell'IA sono sistemi estremamente complessi e che testarli in modo esauriente per trovare tutti i possibili casi di errore non è qualcosa che un'azienda come Google pensa di poter fare senza un aiuto esterno.In secondo luogo, Google è estremamente consapevole di quanto siano inclini al fallimento questi modelli linguistici di intelligenza artificiale e vuole gestire le aspettative.Il lancio di modelli di intelligenza artificiale senza test adeguati può essere disastrosoQuando le organizzazioni spingono nuovi sistemi di intelligenza artificiale nella sfera pubblica senza un'adeguata verifica, i risultati possono essere disastrosi.(Ricordate Tay, il chatbot di Microsoft a cui Twitter ha insegnato a essere razzista? O chiedete a Delphi, il consulente per l'etica dell'IA a cui potrebbe essere chiesto di condonare il genocidio?) La nuova app AI Test Kitchen di Google è un tentativo di ammorbidire questo processo: per invitare a criticare I sistemi di intelligenza artificiale controllano il flusso di questo feedback.Deborah Raji, una ricercatrice di intelligenza artificiale specializzata in audit e valutazioni di modelli di intelligenza artificiale, ha dichiarato a The Verge che questo approccio limiterà necessariamente ciò che terze parti possono apprendere sul sistema."Poiché controllano completamente ciò che stanno condividendo, è possibile solo ottenere una comprensione distorta di come funziona il sistema, poiché c'è un'eccessiva dipendenza dall'azienda per mantenere quali prompt sono consentiti e come viene interagito con il modello", dice Raji.Al contrario, alcune aziende come Facebook sono state molto più aperte con le loro ricerche, rilasciando modelli di intelligenza artificiale in un modo che consente un controllo molto più ampio.Non è ancora chiaro come funzionerà esattamente l'approccio di Google nel mondo reale, ma l'azienda almeno si aspetta che alcune cose andranno storte."Abbiamo fatto un grande processo di squadra rossa [per testare i punti deboli del sistema] internamente, ma nonostante tutto, pensiamo ancora che le persone proveranno a infrangerlo e una percentuale di loro ci riuscirà", afferma Woodward.“Questo è un viaggio, ma è un'area di ricerca attiva.Ci sono molte cose da capire.E quello che stiamo dicendo è che non possiamo capirlo semplicemente testandolo internamente: dobbiamo aprirlo".Dopo aver visto LaMDA in azione, è difficile non immaginare come una tecnologia come questa cambierà Google in futuro, in particolare il suo prodotto più importante: la ricerca.Sebbene Google sottolinei che AI ​​Test Kitchen è solo uno strumento di ricerca, la sua funzionalità si collega molto ovviamente ai servizi dell'azienda.Mantenere una conservazione in tema è vitale per l'Assistente Google, ad esempio, mentre la modalità "Elencalo" in Test Kitchen è quasi identica alla funzione "Cose da sapere" di Google, che suddivide attività e argomenti in punti elenco nella ricerca.Google stesso ha alimentato tale speculazione (forse inavvertitamente) in un documento di ricerca pubblicato lo scorso anno.Nel documento, quattro ingegneri dell'azienda hanno suggerito che, invece di digitare le domande in una casella di ricerca e mostrare agli utenti i risultati, i futuri motori di ricerca agirebbero più come intermediari, utilizzando l'IA per analizzare il contenuto dei risultati e quindi tirando fuori il massimo informazioni utili.Ovviamente, questo approccio comporta nuovi problemi derivanti dagli stessi modelli di intelligenza artificiale, dalla distorsione nei risultati ai sistemi che compongono le risposte.Google sta lentamente aggiungendo l'intelligenza artificiale al suo motore di ricercaIn una certa misura, Google ha già intrapreso questa strada, con strumenti come "frammenti in primo piano" e "riquadri delle conoscenze" utilizzati per rispondere direttamente alle domande.Ma l'IA ha il potenziale per accelerare questo processo.L'anno scorso, ad esempio, la società ha mostrato un modello sperimentale di intelligenza artificiale che ha risposto alle domande su Plutone dal punto di vista dell'ex pianeta stesso, e quest'anno il lento flusso di funzionalità di conversazione basate sull'intelligenza artificiale continua.Nonostante le speculazioni su un cambiamento radicale nella ricerca, Google sta sottolineando che qualunque cambiamento accadrà accadrà lentamente.Quando ho chiesto a Zoubin Ghahramani, vicepresidente della ricerca presso Google AI, come l'IA trasformerà la Ricerca Google, la sua risposta è stata una sorta di delusione."Penso che sarà graduale", dice Ghahramani."Forse suona come una risposta stupida, ma penso che corrisponda alla realtà."Riconosce che già “ci sono cose che puoi inserire nella casella di Google e riceverai solo una risposta.E nel tempo, fondamentalmente ottieni sempre più di quelle cose. "Ma è attento a dire anche che la casella di ricerca "non dovrebbe essere la fine, dovrebbe essere solo l'inizio del viaggio di ricerca per le persone".Per ora, Ghahramani afferma che Google si sta concentrando su una manciata di criteri chiave per valutare i suoi prodotti di intelligenza artificiale, vale a dire qualità, sicurezza e solidità."Qualità" si riferisce a quanto è in tema la risposta;"sicurezza" si riferisce al potenziale per il modello di dire cose nocive o tossiche;mentre "groundedness" è se il sistema sta inventando informazioni o meno.Questi sono essenzialmente problemi irrisolti, tuttavia, e fino a quando i sistemi di intelligenza artificiale non saranno più trattabili, Ghahramani afferma che Google sarà cauto nell'applicare questa tecnologia.Sottolinea che "c'è un grande divario tra ciò che possiamo costruire come prototipo di ricerca [e] quindi ciò che può essere effettivamente implementato come prodotto".È una differenziazione che dovrebbe essere presa con un certo scetticismo.Proprio il mese scorso, ad esempio, l'ultima funzione di "scrittura assistiva" basata sull'intelligenza artificiale di Google è stata implementata per gli utenti che hanno riscontrato immediatamente problemi.Ma è chiaro che Google desidera ardentemente che questa tecnologia funzioni e, per ora, si dedica a risolvere i suoi problemi, un'app di prova alla volta./ Iscriviti a Verge Deals per ricevere offerte sui prodotti che abbiamo testato quotidianamente nella tua casella di posta.The Verge è una rete multimediale vox© 2022 Vox Media, LLC.Tutti i diritti riservati