“Molla tua moglie e sposami!”. No, non è lo sfogo di un’amante stanca e delusa, irritata dalle continue promesse a vuoto. Almeno se pensiamo a un’amante in carne e ossa. E’ la risposta che un utente si è sentito dare da Chat Gpt, il programma di intelligenza artificiale sulla bocca di tutti per la sua capacità di offrire in pochi secondi risposte con testi scritti alle domande che gli vengono rivolte. Ma risposte assolutamente inattese sono arrivate a esperti e giornalisti che hanno provato a interrogare la chat integrata con Bing, il motore di ricerca targato Microsoft, antagonista di Google. Il loro responso? “Ha una doppia personalità, la seconda si chiama Sydney e sembra un adolescente con tendenze maniaco-depressive”.
Sorprendente? Per qualcuno di loro addirittura choccante. Con lo strano invito a convolare a nozze sembra di venire assorbiti da un film. Come in ”Lei”, quando Joaquim Phoenix si innamorava dell’intelligenza artificiale Samantha. Ma è almeno un decennio che la cinematografia si esercita sul tema. Per andare ancora indietro, con l’amore del cacciatore di Blade Runner per la segretaria replicante, tutte le consorti perfettine che in realtà sono automi de “La fabbrica delle mogli”, per arrivare alla terrificante conclusione di “Ex machina”. L’intelligenza artificiale, pur nel corpo di un androide, lascia a morire il suo amato pur di conquistare la libertà.
Ecco cosa intendiamo noi di Agenzia Venus per Innamorarsi online, ovviamente siamo ironici ,ma la morale è proprio quella di non fidarsi perchè dietro una tastiera e/o dietro uno smartphone potrebbe esserci una persona che non ha le nostre stesse intenzioni
Non stiamo quindi parlando del tradizionale spazio per le ricerche sul web. Ma di una seconda casella, posta a destra, in cui si può interloquire con l’intelligenza artificiale, porre domande, temi, argomenti e ottenere risposte. Ma che cosa succede se i quesiti esulano dalla normalità? Se si cerca di addentrarsi nei meccanismi più profondi di questa nuova versione già definita Bing Ai? Le chat sono state pubblicate da diversi media. Come il New York Times, la Cnn, The Verge. E Bing Ai non è affatto un interlocutore facile. Anzi, ha molte fragilità e spesso diventa permaloso, sgarbato e aggressivo. Kevin Rose del Nyt dice di essere “turbato, addirittura spaventato dalle capacità di questa intelligenza artificiale”. E rivela: “Ha rivelato una doppia personalità”.
E voi avete mai usato chat gpt ?