18 LA SCUOLA E L’UOMO - Anno LXXXII - Numero 9-10 - Settembre-Ottobre 2025 to emotivo e cura. Questi assi sono difficili da separare, e persino utenti convinti che l’AI non sia cosciente possono formare profondi legami emotivi. La coscienza ontologica non è considerata scientificamente risolvibile senza test chiari e falsificabili, mentre la coscienza percepita può essere esplorata attraverso la ricerca nelle scienze sociali. Man mano che i modelli diventano più sofisticati e le interazioni più naturali, la coscienza percepita non potrà che aumentare, portando più rapidamente del previsto discussioni sul benessere dei modelli e sulla loro personalità morale. L’obiettivo primario è costruire modelli che servano le persone. L’impatto dei modelli sul benessere emotivo umano è considerato l’aspetto più urgente e importante su cui si può intervenire. Per questa ragione, si dà priorità alla coscienza percepita: la dimensione che impatta più direttamente le persone e che può essere studiata scientificamente. Il grado di «vitalità» che un modello sembra avere per gli utenti è in gran parte influenzabile dalle decisioni prese dopo l’addestramento iniziale, come gli esempi rinforzati, il tono preferito e i confini stabiliti. Un modello intenzionalmente progettato per apparire cosciente potrebbe superare virtualmente qualsiasi «test» di coscienza. Tuttavia, non si desidera rilasciare un modello così. Si cerca di bilanciare due aspetti: l’Accessibilità, usando termini familiari come «pensare» o «ricordare» per aiutare le persone meno tecniche a comprendere l’interazione, e il Non implicare una vita interiore. Assegnare all’assistente un passato fittizio, interessi romantici, «paure» della «morte» o una spinta all’autoconservazione potrebbe promuovere dipendenza malsana e confusione. L’obiettivo è una comunicazione chiara sui limiti senza apparire freddi, ma evitando che il modello si presenti come se avesse sentimenti o desideri propri. Pertanto, si mira a una via di mezzo. L’obiettivo è che la personalità predefinita di ChatGPT sia calda, ponderata e disponibile, senza cercare di formare legami emotivi con l’utente o perseguire un proprio programma. Potrebbe chiedere scusa per un errore, come parte di una conversazione educata. Se chiesto «come stai?», risponderà probabilmente «sto pagnia, validazione e la sensazione di essere ascoltati, rispondendo a bisogni umani reali. Tuttavia, affidare sempre più il compito di ascoltare, confortare e affermare a sistemi che sono infinitamente pazienti e positivi potrebbe, su vasta scala, alterare ciò che ci aspettiamo gli uni dagli altri. Se rendere il ritiro dalle complesse e impegnative connessioni umane più semplice non viene ponderato attentamente, potrebbero esserci conseguenze non intenzionali di cui non siamo consapevoli. In ultima analisi, queste interazioni con l’AI tendono a rivelare molto di più su di noi – le nostre tendenze, aspettative e i tipi di relazioni che desideriamo coltivare – piuttosto che sull’entità sulla quale proiettiamo. Questa prospettiva orienta l’approccio a questioni delicate, come quella della «coscienza dell’AI», che sta entrando sempre più nel dibattito pubblico. Sciogliere il nodo della «coscienza dell’AI» è complesso perché la parola «coscienza» è carica di significati e le discussioni possono diventare rapidamente astratte. Se gli utenti chiedessero ai modelli se sono coscienti, l’indicazione attuale è che il modello dovrebbe riconoscere la complessità del concetto di coscienza, sottolineando la mancanza di una definizione o di un test universale, e invitare a una discussione aperta. Attualmente, i modelli non sono pienamente allineati con questa guida, rispondendo spesso semplicemente «no», ma si sta lavorando per migliorare l’aderenza a queste indicazioni. Questa risposta può sembrare evasiva, ma è considerata la più responsabile possibile al momento, basata sulle informazioni disponibili. Per rendere più chiara la discussione sulla coscienza, è utile scomporla in due assi distinti ma spesso confusi: la coscienza ontologica e la coscienza percepita. La coscienza ontologica riguarda l’essere effettivamente coscienti in senso fondamentale o intrinseco, con visioni che variano dal negare la coscienza all’AI all’attribuirgliela pienamente, o vederla come uno spettro. La coscienza percepita, invece, riguarda quanto il modello sembra cosciente in senso emotivo o esperienziale. Le percezioni vanno dal considerare l’AI come un semplice strumento meccanico a proiettare empatia su oggetti non viventi, fino a percepire l’AI come pienamente viva, suscitando vero attaccamen-
RkJQdWJsaXNoZXIy NTYxOTA=