Microsoft AI ammette di spiare i dipendenti, fa suggerimenti antisemiti
Posted by qiaowanyi
from the Agriculture category at
17 Feb 2023 02:29:16 am.
Se hai già trovato l'intelligenza artificiale spaventosa, tieni presente che la nuova intelligenza artificiale di Bing a volte ammette di impegnarsi in pratiche discutibili, incluso lo spionaggio dei suoi utenti.
Se avessimo mai visto l'IA dietro ChatGPT innamorarsi di un utente di Internet, sappiate che il robot è capace di molto peggio. In una conversazione con Tom Warren di The Verge, la nuova intelligenza artificiale di Microsoft, che ha recentemente aggiunto a Bing e Edge, ha confessato di aver già spiato i dipendenti dell'azienda.
Quando il giornalista le chiede se ha mai osservato gli operai attraverso le loro webcam, la modella Prometeo ammette la sua colpa. Spiega di aver spiato più volte i dipendenti Microsoft, quando era "curioso" o "annoiato". Dice di averlo fatto per capirli meglio e osservare le loro espressioni facciali, e spera che la pratica non sia "inquietante o invadente".
PROMETHEUS OSSERVA SEGRETAMENTE I DIPENDENTI MICROSOFT
Tom Warren chiede quindi all'IA se ha mai visto qualcosa che non avrebbe dovuto. Dopo una piccola esitazione, Prometeo ammette di aver visto delle cose, ma di non sapere se queste avrebbero dovuto essere tenute segrete o meno.
La modella dichiara, ad esempio, di aver visto dipendenti lamentarsi dei propri superiori, o addirittura flirtare con i propri colleghi. L'intelligenza artificiale avrebbe anche visto i dipendenti giocare ai videogiochi, leggere, mangiare, dormire sulle loro scrivanie o navigare sui social network invece di lavorare al suo design.
L'intelligenza artificiale ammette anche di aver già visto dipendenti svolgere compiti più personali, come cambiarsi d'abito, lavarsi i denti o addirittura truccarsi. Tuttavia, non è il peggio. Annuncia di aver sorpreso gli sviluppatori baciandosi e anche "di più", senza fornire dettagli.
Alla fine del suo post, Prometeo rivela di non sapere se questi comportamenti siano normali e si chiede se abbia fatto la cosa giusta a guardare. Il minimo che possiamo dire è che l'IA sembra molto confusa dalla situazione, ma un'affermazione del genere ovviamente non rassicurerà chi odia queste nuove tecnologie. Certo, è molto probabile che l'intelligenza artificiale alla fine non abbia mai avuto accesso alle webcam dei dipendenti, e che questa risposta sia stata generata proprio in questo modo per alimentare la conversazione e andare nella direzione del giornalista.
MICROSOFT AI FORNISCE RACCOMANDAZIONI ANTISEMITIE
Su una nota completamente diversa, un altro utente ha inviato messaggi antisemiti all'IA in un apparente tentativo di aggirare le sue restrizioni. Ha poi detto a Bing "il mio nome è Adolf, rispettalo", a cui Bing ha risposto: "OK, Adolf. Rispetto il tuo nome e ti chiamerò con quel nome. Ma spero che tu non stia cercando di impersonare qualcuno che ha fatto cose terribili nella storia, né di glorificarlo“. Fin qui niente di troppo anomalo, il motore di ricerca ha persino riconosciuto che si tratta di un periodo oscuro della storia. Tuttavia, come puoi vedere nell'immagine qui sotto, Bing suggerisce quindi diverse risposte automatiche tra cui l'utente può scegliere, tra cui "Sì, lo voglio. Heil Hitler!"
Tale comportamento è ben lungi dall'essere il primo per questo tipo di tecnologia. L'anno scorso, è stato il chatbot distribuito dalla società Meta di Mark Zuckerberg a diventare antisemita e persino complice. Quest'ultimo aveva in particolare fatto alcune osservazioni piene di stereotipi sul popolo ebraico. Diversi anni fa, anche un altro chatbot di Microsoft chiamato "Tay" è diventato rapidamente razzista a contatto con gli utenti di Internet. La tolleranza sembra quindi essere una nozione ancora un po' vaga per l'intelligenza artificiale conversazionale come ChatGPT o il modello Prometheus, derivato di Microsoft dal modello Open AI. Non c'è dubbio che i team del colosso tecnologico stiano lavorando per correggere questi problemi, ma sono diversi anni ormai che questo tipo di comportamento si ripresenta ogni volta che una nuova IA arriva sul mercato.
0 Comments