9-10 Settembre-Ottobre 2025

17 LA SCUOLA E L’UOMO - Anno LXXXII - Numero 9-10 - Settembre-Ottobre 2025 All’alba dello scorso venerdì 6 giugno, alla 9 di sera della California, Joanne Jang, una delle figure di spicco nel campo dell’intelligenza artificiale, attualmente responsabile del comportamento dei modelli (Head of Model Behavior) presso OpenAI, dove guida le strategie di progettazione e policy per sistemi come ChatGPT e DALL·E, ha pubblicato un lungo post, riportato poi da Sam Altman, che merita un’analisi.(1) Il post rilanciato su X di Joanne Jang Secondo i dati raccolti da OpenAI, i ricercatori si sono resi conto che ultimamente, un numero crescente di persone descrive l’interazione con ChatGPT come parlare con «qualcuno». Da qui le riflessioni di Joanne Jang che proviamo a ripercorrere per poi fare alcune considerazioni. Cosa rileva OpenAI Queste persone ringraziano l’AI, si confidano con essa e alcune la percepiscono addirittura come «viva». Man mano che i sistemi di intelligenza artificiale migliorano nelle conversazioni naturali e si integrano sempre più nella vita quotidiana, si prevede che questi legami tenderanno ad approfondirsi. È cruciale il modo in cui inquadriamo e discutiamo queste relazioni uomo-AI fin da ora, poiché la precisione nel linguaggio e nelle sfumature, sia nello sviluppo dei prodotti che nelle discussioni pubbliche, influenzerà significativamente la direzione che prenderà il rapporto delle persone con l’AI. Queste non sono più considerazioni astratte, ma questioni di grande importanza per chi (1) https://www.linkedin.com/pulse/la-relazione-tra-luomo-e-i-modelli-di-ai-interroga-openai-benanti-pdfgf/ sviluppa AI e per l’intero settore. Il modo in cui affronteremo questi temi modellerà in maniera significativa il ruolo che l’intelligenza artificiale avrà nella vita delle persone. Si stanno esplorando attivamente queste domande interconnesse: perché le persone potrebbero attaccarsi emotivamente all’AI, come si affronta la questione della «coscienza dell’AI» e come ciò influisce sulla definizione del comportamento dei modelli. Si osserva uno schema familiare applicato a un contesto nuovo: gli esseri umani tendono naturalmente ad antropomorfizzare gli oggetti che li circondano, arrivando a dare nomi alle auto o a provare dispiacere per un robot aspirapolvere bloccato. Questa tendenza è probabilmente intrinseca alla nostra natura. La differenza fondamentale con un modello linguistico come ChatGPT non è l’inclinazione umana all’antropomorfizzazione in sé, ma il fatto che l’AI risponde. Un modello linguistico può replicare, richiamare informazioni precedentemente fornite, rispecchiare il tono dell’utente e offrire ciò che sembra empatia. Per chi si sente solo o turbato, questa attenzione costante e priva di giudizio può manifestarsi come comLA RELAZIONE TRA L’UOMO E I MODELLI DI AI INTERROGA OPENAI (1) Paolo Benanti, Professore presso Pontificia Università Gregoriana

RkJQdWJsaXNoZXIy NTYxOTA=