Cathy Pearl, responsabile dell'esperienza di Google Bard, si interroga sulla reale utilità dei chatbot con modelli linguistici di grandi dimensioni (LLM) in un server Discord.
I membri della comunità su Discord sostengono che il chatbot Bard di Google fatica a rispondere anche a domande di base sulle applicazioni di Google.
Dominik Rabiej, product manager di Bard, suggerisce che i risultati dei chatbot LLM non possono essere attendibili senza una verifica indipendente.
promo
Lo screenshot di un server Discord dedicato al chatbot di intelligenza artificiale (AI) di Google, Bard, suggerisce che alcuni dipendenti di Google mettono in dubbio l’utilità dei chatbot con grandi modelli linguistici (LLM).
I chatbot AI sono diventati di uso comune nel 2023 grazie a ChatGPT di OpenAI e a Bard di Google. Tuttavia, i chatbot AI, allo stato attuale, sono davvero utili?
L’esperienza di Google Bard porta a chiedersi se i LLM stiano facendo la differenza
Secondo Bloomberg, esiste un server Discord dedicato ai grandi utenti di Google Bard e ad alcuni dipendenti del gigante dei motori di ricerca. In questo server si discute dell’efficacia e dell’utilità del chatbot.
Bloomberg ha raccolto gli screenshot delle conversazioni di due membri del server Discord da luglio a ottobre. In agosto, Cathy Pearl, responsabile dell’esperienza utente di Google Bard, ha scritto:
“La sfida più grande a cui sto ancora pensando: per cosa sono veramente utili i LLM, in termini di utilità? Come fare davvero la differenza. TBD!”.
“Chiunque abbia usato Bard probabilmente sarà d’accordo. Non è nemmeno in grado di rispondere alle domande di base sul funzionamento delle applicazioni di Google, ad esempio Analytics, reCAPTCHA ecc. Andate a provarlo”.
Il Product Manager di Google ritiene che l’output non possa essere attendibile
Si è discusso sull’affidabilità dei dati generati dai chatbot. Dominik Rabiej, product manager di Bard, sostiene che i LLM non sono in una fase in cui gli utenti possono fidarsi dei loro risultati senza verificarli in modo indipendente. Ha affermato che:
“La mia regola generale è di non fidarmi dei risultati degli LLM se non posso verificarli in modo indipendente”.
Gli LLM sono modelli di intelligenza artificiale addestrati con un’ampia serie di dati per generare risultati simili a quelli umani. Chatbot come ChatGPT e quello di Google utilizzano gli LLM.
Poiché i dati non sono completamente affidabili, Rabiej suggerisce che l’ideale è usare Google Bard per fare brainstorming, invece di affidarsi a lui solo per le informazioni. Infatti, quando un utente inizia a usare Bard, appare un messaggio che dice: “è un esperimento”. Il messaggio recita inoltre:
“Bard non sarà sempre corretto Bard potrebbe dare risposte imprecise o offensive. In caso di dubbio, utilizzare il pulsante Google per ricontrollare le risposte di Bard”.
Tutte le informazioni contenute nel nostro sito web sono pubblicate in buona fede e solo a scopo informativo generale. Qualsiasi azione intrapresa dal lettore in base alle informazioni contenute nel nostro sito web è strettamente a suo rischio e pericolo.
Harsh Notariya è un giornalista di BeInCrypto, che scrive di vari argomenti, includendo le reti decentralizzate di infrastrutture fisiche (DePIN), la tokenizzazione, gli airdrop di criptovalute, la finanza decentralizzata (DeFi), i memecoin e le altcoin. Prima di entrare in BeInCrypto, è stato consulente della comunità presso Totality Corp, specializzandosi nel metaverso e nei token non fungibili (NFT). Inoltre, Harsh è stato scrittore e ricercatore di contenuti sulla blockchain presso...
Harsh Notariya è un giornalista di BeInCrypto, che scrive di vari argomenti, includendo le reti decentralizzate di infrastrutture fisiche (DePIN), la tokenizzazione, gli airdrop di criptovalute, la finanza decentralizzata (DeFi), i memecoin e le altcoin. Prima di entrare in BeInCrypto, è stato consulente della comunità presso Totality Corp, specializzandosi nel metaverso e nei token non fungibili (NFT). Inoltre, Harsh è stato scrittore e ricercatore di contenuti sulla blockchain presso...