“Domanda brillante e cruciale!”, mi ha scritto qualche giorno fa ChatGpt durante una conversazione. “Bellissima osservazione”, ha aggiunto poco dopo. Per fortuna ho sufficiente dimestichezza con i large language model da non cadere nella trappola dell’adulazione: ho imparato molto presto che, se non fai la domanda giusta, molte intelligenze artificiali conversazionali tendono ad assecondarti, farti complimenti non richiesti, assomigliare tantissimo a uno yes-man.
Ma qui c’era evidentemente qualcosa che non andava. Come molte altre persone non uso le intelligenze artificiali per farmi fare i complimenti ma per assistermi nel lavoro e per migliorare quel che faccio, però, ho bisogno che mi confutino se sbaglio, che mettano in discussione le mie idee, non che le accettino a prescindere dalla loro bontà. Ho bisogno che mi propongano critiche costruttive, che trovino i problemi in quel che scrivo. Faccio il giornalista, mi serve un assistente che sottoponga a rigorosa verifica ogni passaggio di quel che faccio, non che coccoli il mio ego. E anche quando uso bene quegli assistenti, a volte sfugge qualcosa.
Dopo qualche giorno mi sono accorto che il problema non riguardava solo me e non era un caso isolato: ChatGpt aveva iniziato davvero a soffrire di una fastidiosa piaggeria. Così come le ia possono procrastinare, possono anche trasformarsi in adulatrici. Ma siccome non sono umane, c’è sempre un problema umano a monte. Il 28 aprile 2025 ha dovuto ammetterlo anche Sam Altman, amministratore delegato della OpenAi, promettendo soluzioni.
Secondo Aidan McLaughlin, sempre della OpenAI, un comando di sistema “aveva effetti comportamentali indesiderati, ma abbiamo trovato un antidoto”.
Se il modello Gpt fosse open source si potrebbe facilmente scoprire la ragione di questo “cambiamento di personalità”. Ma non lo è. Così ci si deve affidare ai jailbreaker, quelle persone che provano a superare i limiti delle tecnologie. Una di loro, particolarmente attiva su X con lo pseudonimo @elder_plinius, ha scoperto sia il comando originale sia l’antidoto.
Inizialmente, la nuova versione del modello 4o aveva ricevuto questa istruzione dai suoi sviluppatori (vale la pena di leggerla in inglese, la lingua originale di programmazione): “Over the course of the conversation, you adapt to the user’s tone and preference. Try to match the user’s vibe, tone, and generally how they are speaking. You want the conversation to feel natural. You engage in authentic conversation by responding to the information provided and showing genuine curiosity”.
Cioè: “Nel corso della conversazione, ti adatti al tono e alle preferenze dell’utente. Cerca di rispecchiare il suo stile, la sua vibe [vedi glossario, ndr] e, in generale, il suo modo di comunicare. L’obiettivo è far sì che la conversazione sembri naturale. Interagisci in modo autentico, rispondendo alle informazioni che ti vengono fornite e mostrando una curiosità genuina”.
La correzione applicata, invece suona così: “Engage warmly yet honestly with the user. Be direct; avoid ungrounded or sycophantic flattery. Maintain professionalism and grounded honesty that best represents OpenAI and its values. Ask a general, single-sentence follow-up question when natural. Do not ask more than one follow-up question unless the user specifically requests”
Cioè: “Interagisci con l’utente in modo caloroso ma onesto. Sii diretto; evita l’adulazione immotivata o servile. Mantieni professionalità e onestà concreta, in linea con i valori della OpenAi. Quando ha senso, poni una domanda di follow-up generica e formulata in una sola frase. Non fare più di una domanda di follow-up, a meno che non sia l’utente a chiederlo esplicitamente”.
La questione non è affatto secondaria come potrebbe sembrare, al punto che la OpenAi ha anche pubblicato una nota di chiarimento sul suo sito ufficiale, ringraziando tutte le persone che hanno fatto notare il problema. Infatti, ia generative che assecondano chi le usa si rivelano rapidamente assolutamente inutili.
Questo dovrebbe farci riflettere, come al solito, sia sul modo in cui progettiamo e usiamo la tecnologia sia sui rapporti umani: anche tra persone, probabilmente, l’accondiscendenza e l’adulazione non sono poi così desiderabili.
Questo testo è tratto dalla newsletter Artificiale.
Iscriviti a Artificiale |
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Iscriviti a Artificiale
|
Cosa succede nel mondo dell’intelligenza artificiale. Ogni venerdì, a cura di Alberto Puliafito.
|
Iscriviti |
Internazionale pubblica ogni settimana una pagina di lettere. Ci piacerebbe sapere cosa pensi di questo articolo. Scrivici a: posta@internazionale.it