La tecnologia deve essere neutrale?

0
47

Spesso si ritiene che la tecnologia sia di per sé neutrale, che non incorpori valori umani, che non sia quindi né “buona” né “cattiva”, ma che i suoi effetti dipendano solo dall’utilizzo che ne facciamo. 

Nel caso delle più recenti tecnologie di Intelligenza Artificiale si potrebbe anche credere che gli algoritmi siano in grado di compiere scelte migliori, perché più oggettivi e meno influenzati dagli errori e dai pregiudizi degli esseri umani; se da una parte c’è la tendenza a diffidare delle decisioni automatizzate (algorithmic aversion), esiste anche il fenomeno opposto che spinge invece a preferire i suggerimenti degli algoritmi (algorithmic appreciation) rispetto a quelli di altri esseri umani (1).

Tuttavia, diversi casi di discriminazione algoritmica — come quelli di COMPAS (2) e di SyRi (3) — dimostrano che anche queste tecnologie non sono affatto obiettive, neutrali e imparziali, ma che possono riprodurre e amplificare gli stessi errori e pregiudizi (bias) umani. 

Oltre a questi due esempi, una vicenda abbastanza nota è quella del chatbot Tay di Microsoft che, apprendendo dalle interazioni con alcunə utenti, ha talvolta prodotto risposte razziste, estremiste e offensive (4).

Più recentemente, alcuni studi (5) hanno evidenziato come gli output di ChatGPT sembrino avere una tendenza “liberale” o “di sinistra”.

Ciò potrebbe essere dovuto ai testi utilizzati per l’addestramento del modello, che potevano esprimere una determinata posizione politica, ma anche alle preferenze degli umani coinvolti nel processo, o ad alcune caratteristiche dell’algoritmo stesso (6); in ogni caso questo “pregiudizio politico” è stato appreso e replicato da ChatGPT. Anche Dall-E, un altro prodotto di OpenAI come ChatGPT, ha dimostrato nella creazione di immagini di avere ancora qualche ostacolo da superare, circa gli stereotipi riguardo a genere e razza, tra gli altri.

Tutto ciò conferma ulteriormente che la tecnologia – compresa l’IA – non è neutrale; ma perché e fino a che punto dovrebbe esserlo?

Oltre al problema della discriminazione spesso causata da simili bias, la mancanza di neutralità di queste tecnologie è preoccupante anche per la loro capacità di influenzare le nostre opinioni (si pensi ai problemi dei social media). Immaginiamo infatti una situazione opposta alla precedente, in cui le risposte di ChatGPT riflettono posizioni estremiste o fortemente intolleranti e discriminatorie (come nel caso di Tay); molte persone sarebbero d’accordo nel ritenere ciò un problema grave e un rischio da evitare.

La tecnologia dovrebbe quindi essere imparziale, senza favorire nessuna posizione politica o ideologica in particolare.

Tuttavia, si potrebbe obiettare che non tutte le opinioni e le ideologie sono equivalenti: banalmente, promuovere l’uguaglianza e il pacifismo non è analogo a sostenere idee razziste e discriminatorie, perché ci sono concezioni che non sono storicamente o socialmente accettabili. Infatti, come già sostenuto da Karl Popper nel suo famoso “paradosso”, una società tollerante non può tollerare le intolleranze (7). 

Pertanto, anche gli algoritmi e i sistemi di IA non dovrebbero riflettere e riprodurre a loro volta posizioni simili.

Resta però aperta la domanda se sia accettabile che queste tecnologie facciano trasparire idee più “progressiste” o – spingendosi ancora oltre – se debbano essere addirittura utilizzate per veicolare e promuovere messaggi “socialmente positivi” (come la tolleranza, l’uguaglianza, il pacifismo, l’ecologismo, ecc.).

In questo caso, la tecnologia cesserebbe del tutto di essere neutrale e imparziale, ma questo solleverebbe ancora problemi? E se sì, di che tipo?

Una prima obiezione riguarda l’impatto che si avrebbe sull’autonomia umana: esiste infatti un acceso dibattito sul rapporto tra l’utilizzo di tecniche per influenzare le persone verso scelte — socialmente o individualmente — migliori (8) e il rispetto della loro autonomia decisionale. Per cui la stessa domanda si ripropone nel caso delle tecnologie digitali, soprattutto se “persuasive” (9).

Il secondo interrogativo riguarda la concezione stessa di moralità: l’idea che l’agire morale coincida con l’imparzialità è piuttosto radicata nella storia della filosofia, ma è stata anche messa in discussione mostrando come la morale possa nascere dalla parzialità e dalla prossimità e che quindi essere imparziali non sia necessariamente l’obiettivo a cui mirare per agire moralmente (10). 

Se esistono quindi diversi modelli di moralità anche per gli esseri umani, quale dovrebbe applicarsi agli algoritmi? Quale dovrebbe essere la morale della tecnologia?

BIBLIOGRAFIA:

  1. J. M. Logg, J. A. Minson, D.A. Moore, Algorithm appreciation: People prefer algorithmic to human judgment, Organizational Behaviour and Human Decision Processes, 2019, pp.90-103.  https://doi.org/10.1016/j.obhdp.2018.12.005
  2. https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing
  3. https://www.agendadigitale.eu/cultura-digitale/algoritmi-troppo-invasivi-contro-le-frodi-fiscali-la-lezione-delle-dimissioni-del-governo-olandese/
  4. https://www.ilpost.it/2016/03/25/tay-microsoft-ai-razzista/
  5. F. Motoki, V. Pinho Neto, V. Rodrigues, More human than human: measuring ChatGPT political bias, Public Choice, 2023. https://doi.org/10.1007/s11127-023-01097-2
    D. Rozado, The Political Biases of ChatGPT, Social Sciences, 2023. https://doi.org/10.3390/socsci12030148
  1. Confronta riferimenti in (5).
  2. K. Popper, La società aperta e i suoi nemici, vol. I: Platone totalitario, Collana «Filosofia e problemi d’oggi» 30, Roma, Armando, 1973.
  3. R. H. Thaler, C.R. Sunstein, Nudge. La spinta gentile: la nuova strategia per migliorare le nostre decisioni su denaro, salute, felicità, Feltrinelli, Milano, 2014
  4. C. Burr, N. Cristianini, J. Ladyman, An Analysis of the Interaction Between Intelligent Software Agents and Human Users, Minds and Machines, 2018, pp. 735-774. https://doi.org/10.1007/s11023-018-9479-0
  1. C. Botti, Cura e differenza. Ripensare l’etica. LED Edizioni Universitarie, Milano, 2018