Google, la società madre Alphabet e altre grandi aziende tecnologiche stanno avvertendo i propri dipendenti di essere cauti nell’uso dei chatbot, tra cui Bard, l’innovativo chatbot di Google. Questa cautela è dovuta alla possibilità che i dati sensibili possano essere replicati dall’intelligenza artificiale durante il suo processo di apprendimento e successivamente rivelati.

Bard è un chatbot che utilizza l’intelligenza artificiale generativa per interagire con gli utenti e rispondere a una vasta gamma di richieste. Tuttavia, Alphabet ha suggerito ai suoi dipendenti di non inserire materiale confidenziale nei chatbot, compreso Bard, per evitare la fuga di informazioni riservate. Questa preoccupazione si estende a tutti i chatbot e non riguarda solo Bard.

Alphabet ha anche consigliato ai suoi ingegneri di evitare l’uso diretto del codice informatico generato dai chatbot. Questo perché l’intelligenza artificiale, nel suo processo di “addestramento”, può riprodurre i dati che riceve dagli utenti, creando un rischio di fuga di dati.

Nonostante Google stia promuovendo Bard in tutto il mondo, la società è consapevole dei limiti della sua tecnologia. Bard può fornire suggerimenti di codice indesiderati, ma aiuta comunque i programmatori. Google ha dichiarato di voler essere trasparente sui limiti della sua tecnologia.

La cautela di Google riflette un trend più ampio nel settore tecnologico. Altre grandi aziende, tra cui Samsung e Amazon, hanno emesso avvertimenti simili ai loro dipendenti sull’uso dei chatbot. Queste aziende stanno cercando di bilanciare i benefici dell’IA con la necessità di proteggere le informazioni riservate.

Secondo un recente articolo di Reuters, Google ha confermato che ha avvisato i suoi dipendenti di non inserire materiale confidenziale nei chatbot, citando una politica di lunga data sulla salvaguardia delle informazioni. Questa cautela si estende anche ai suggerimenti di codice forniti da Bard. Google ha affermato che Bard può fare suggerimenti di codice indesiderati, ma aiuta comunque i programmatori.

Inoltre, Google ha dichiarato di voler essere trasparente sui limiti della sua tecnologia. Questo riflette un trend più ampio nel settore tecnologico, con un numero crescente di aziende che stabiliscono salvaguardie sui chatbot IA, tra cui Samsung, Amazon.com e Deutsche Bank.

In conclusione, mentre l’intelligenza artificiale offre enormi opportunità, è fondamentale maneggiarla con cura. Le aziende devono essere consapevoli dei rischi associati all’uso dei chatbot e implementare politiche adeguate per proteggere le informazioni riservate.