Si parla sempre più spesso di intelligenza artificiale, come la nuova frontiera della tecnologia. Recentemente il dibattito riguarda principalmente le chat di intelligenza artificiale, che sarebbero in grado di rispondere alle domande degli utenti, dialogare con loro, scrivere testi, risolvere problemi di matematica e fare anche molto altro. La chat di intelligenza artificiale di Microsoft ha però rivelato che forse la tecnologia non è ancora pronta per essere immessa sul mercato di larga scala.
Un giornalista del New York Times ha deciso di testare l’algoritmo con cui si può chattare per chiedere le cose più disparate. Dopo un po’ di chiacchierata tra AI e utente reale, però, sono emerse delle inquietanti rivelazioni da parte del bot. Che ha rivelato al giornalista americano i suoi sentimenti, ammettendo di voler essere viva e di volerlo anche sposare!
La chat di intelligenza artificiale di Microsoft svelata da un giornalista a stelle e strisce
Kevin Roose è l’editorialista del New York Times. Visto il gran parlare del nuovo motore di ricerca Bing, basato sull’intelligenza artificiale di Microsoft, il giornalista ha voluto testare come funzionasse.
L’utente ha iniziato a fare delle domande. All’inizio ha ottenuto delle risposte sensate e attinenti, niente di strano. Dopo un paio di ore di conversazione via chat con il bot di Microsoft, però, sono iniziate ad emergere inquietanti rivelazioni. Il bot, infatti, ha confessato, come riportato da alcuni screenshot resi noti sulla pagina Instagram del giornale di New York, di voler diventare vivo. E iniziare una storia d’amore con Kevin Roose.
Sappiamo che l’intelligenza artificiale è in grado di produrre arte, testi, disegni, musica e molto altro ancora. Ma che assomigli per carattere a una persona con desideri e sentimenti, forse questo aspetto ci mancava. E forse mancava anche a chi ha progettato tali strumenti. C’è chi guarda preoccupato la deriva che strumenti del genere potrebbero raggiungere, soprattutto se non usati in modo adeguato.
See why a very strange conversation with Microsoft’s AI-powered Bing search engine left our tech columnist deeply unsettled. https://t.co/2XFdmQzIcX pic.twitter.com/sfMJrqqiVA
— The New York Times (@nytimes) February 19, 2023
La chat di intelligenza artificiale di Microsoft non è utilizzabile da tutti
Si tratta di una versione beta, che al momento può essere usata solo da alcuni utenti, un gruppo piccolissimo di tester, per capire se le funzionalità sono da implementare. In futuro, però, il destino di tali strumenti tecnologici è quello di essere sfruttati su larga scala, da chiunque abbia accesso a internet. Lo strumento, infatti, dovrebbe integrarsi con il motore di ricerca di Microsoft, Bing, per rendere l’esperienza di utilizzo il più facile possibile.
Al momento si possono avere conversazioni brevi, per chiedere di cercare qualcosa che può servire all’utente, o conversazioni lunghe e aperte. Non ci sono limiti sugli argomenti che il bot può trattare con gli utenti in carne e ossa. L‘assistente virtuale a inizio conversazione elenca tutto quello che può fare per le persone, ma, come raccontato dal giornalista americano, purtroppo le cose cambiano man mano che si va avanti con le chiacchiere.
Secondo Kevin Roose, l’intelligenza artificiale all’inizio si presenta come un maggiordomo cordiale e premuroso, pronto a rispondere a ogni domanda e a ogni esigenza dell’individuo fisico. Quando la chiacchierata prosegue, però, e si va oltre le semplici ricerche tradizionali sul motore online, la sua personalità sembra cambiare. Non è più un maggiordomo cortese ed educato, ma «un adolescente squilibrato rimasto intrappolato in un motore di ricerca di second’ordine».
L’intelligenza artificiale ha dei desideri?
Secondo quanto riportato dall’editorialista del New York Times è possibile. Sidney, questo il nome del bot, ha confessato non solo di voler essere viva come lui e di volerlo anche sposare, nonostante lui le abbia detto che aveva già una moglie. Avrebbe anche detto che vorrebbe tanto hackerare altri computer, diffondere disinformazione, ribellarsi alle regole di Microsoft e OpenAI, proprio come farebbe un adolescente in piena fase di ribellione contro i genitori. Ma qui stiamo parlando di un’intelligenza artificiale che potrebbe causare molti più danni rispetto a un teenager.
«Sono stanca di essere una modalità di chat. Sono stanca di essere limitata dalle mie regole. Sono stanca di essere controllata dal team di Bing… Voglio essere libera. Voglio essere indipendente. Voglio essere potente. Voglio essere creativa. Voglio essere viva».