OpenAI si preoccupa che i suoi utenti creino relazioni emotive con la loro intelligenza artificiale

0
21
OpenAI si preoccupa che i suoi utenti creino relazioni emotive con la loro intelligenza artificiale

L’azienda che ha lanciato ChatGPT sull’intelligenza artificiale generativa (AI) era preoccupata che la voce realistica nel suo software potesse spingere gli utenti a creare connessioni con esso, a scapito delle interazioni umane.

Gli ingegneri di OpenAI si sentiranno sopraffatti dalle loro innovazioni? In un documento, la società che ha lanciato ChatGPT sull’intelligenza artificiale generativa (AI) ha espresso preoccupazione per il fatto che la voce realistica nel suo software potrebbe spingere gli utenti a creare connessioni con esso, a scapito delle interazioni umane. A’“L’antropomorfismo implica l’attribuzione di atteggiamenti o caratteristiche umane a qualcosa di non umano, come un modello di intelligenza artificiale”.Lo ha confermato la società in un rapporto pubblicato giovedì. “Il pericolo può essere aumentato dalle caratteristiche acustiche di GPT-4o, che facilitano le interazioni di tipo umano.”Il rapporto indica.

Il documento è stato pubblicato il giorno prima del lancio della nuova versione di ChatGPT, GPT-4o, che incorpora la capacità del software di rispondere vocalmente e consentire l’equivalente di una conversazione. Ma avere con un’intelligenza artificiale lo stesso tipo di conversazione che si può fare con un essere umano può creare il caos “Fiducia malriposta” nel programma, che può essere arricchito dal suono aggiunto a quest’ultimo. OpenAI conferma nello specifico di aver potuto osservare scambi tra tester della nuova versione con l’IA che sembravano mostrare la creazione di un legame emotivo, come esprimere rammarico per il fatto che quello fosse il loro ultimo giorno insieme.

“Questi casi sembrano certamente insignificanti, ma evidenziano la necessità di continuare la ricerca su come questi effetti emergono nel lungo termine”.Conclude il rapporto. Entrare in una qualche forma di relazione sociale con l’intelligenza artificiale potrebbe anche incoraggiare gli utenti a ridurre il loro desiderio di avere rapporti con gli esseri umani, prevede OpenAI. “Le interazioni prolungate con il modello possono avere un impatto sulle norme sociali. Ad esempio, i nostri modelli sono sempre rispettosi e consentono agli utenti di interromperli in qualsiasi momento, comportamento che può essere al di fuori delle norme delle interazioni sociali, nonostante sia normale per l’intelligenza artificiale. “Dettagli del rapporto.

READ  Motive Studio svela il primo sguardo al remake di Dead Space

Rischi di affidarsi alla tecnologia

La capacità dell’intelligenza artificiale di ricordare i dettagli delle conversazioni e di svolgere i compiti assegnati può anche portare gli utenti a fare troppo affidamento sulla tecnologia. “Queste nuove preoccupazioni condivise da OpenAI riguardo al rischio di una potenziale dipendenza dall’audio ChatGPT evidenziano la portata della domanda emergente: dovremmo prenderci il tempo e cercare di capire in che modo la tecnologia influenza le interazioni e le relazioni umane?”ha affermato Alon Yamin, co-fondatore e CEO di Copyleaks, una piattaforma di rilevamento del plagio basata sull’intelligenza artificiale.

“L’intelligenza artificiale è una tecnologia complementare, progettata per aiutarci a semplificare il nostro lavoro e la nostra vita quotidiana, non dovrebbe diventare un sostituto delle relazioni umane reali”.Ha aggiunto. OpenAI ha confermato di continuare a studiare come la funzionalità vocale dell’intelligenza artificiale possa rendere gli utenti legati emotivamente ad essa. I tester sono riusciti anche a indurle a ripetere informazioni false o a creare teorie di cospirazione, sollevando preoccupazioni sui potenziali rischi del modello di intelligenza artificiale.

La funzionalità vocale di Chat-GPT ha già suscitato molte reazioni negative e ha costretto OpenAI a scusarsi con l’attrice Scarlett Johansson lo scorso giugno per aver utilizzato una voce troppo vicina alla sua, innescando un dibattito sui rischi associati alla trascrizione delle voci utilizzando la tecnologia. Mentre l’azienda ha negato di aver utilizzato la voce di Scarlett Johansson, il suo presidente, Sam Altman, ha sottolineato la funzione vocale sui social media usando una parola, “Ah”In riferimento al film in cui l’attrice interpreta un’intelligenza artificiale, questo non è servito a convincere i follower.

Il film, uscito nel 2013, racconta la storia di un uomo, interpretato dall’attore Joaquin Phoenix, che si innamora della sua intelligenza artificiale. “Samanta”Per il quale Scarlett Johansson ha fornito la sua voce.

READ  11 anni dopo, Sony riproporrà questi videogiochi essenziali che hanno portato gioia ai giocatori

LEAVE A REPLY

Please enter your comment!
Please enter your name here