Ricordo che quando ho iniziato a lavorare nel settore (in una delle tante declinazioni dell’informatica), l’Intelligenza Artificiale era ancora dominio della fantascienza e degli articoli di ricerca. Certo, il Machine Learning1 si sentiva nominare spesso come la soluzione a tanti problemi computazionali generici. Veniva brandito in maniera tanto sgraziata da chi provava a vendere questo o quel prodotto software miracoloso o consulenza magica, che era diventato un meme tra me e alcuni colleghi.
Inutile dire che i successi degli ultimi anni mi hanno stupito e devo riconoscere che tutto questo trambusto ha un po’ ragione di essere.
Ma questo non è un articolo sulla IA stessa, ma sulle reazioni che questa ha suscitato.
Quando gli LLM hanno iniziato a manifestarsi come il nuovo argomento caldo, e le persone hanno iniziato ad affidarcisi sempre di più, come ci si affida ad un oracolo, i fautori della IA hanno già puntato in alto, dicendo che l’obiettivo è la IAG (una lettera in più, implica qualcosa di più grosso, di migliore, di più fico ancora) la Intelligenza Artificiale Generale2, fino ad arrivare ad una Super Intelligenza Artificiale, che risolva in maniera autonoma tutti i nostri problemi.
Mi si perdoni lo scetticismo, ma credo che l’obiettivo vero, come sempre, sia di raccogliere ancora più soldi per quello che già stanno facendo (rendere servizio da cui estrarre denaro un’innovazione tecnica).
Quello di cui sono più stupito però è di trovarmi incredibilmente allineato alla posizione della Chiesa Cattolica di Roma in materia di IA ed etica. Pur non condividendo completamente i presupposti filosofici da cui la curia parte, le parole espresse nella Nota Antiqua et Nova sull’IA risuonano molto con la mia sensibilità e volevo quindi condividerle. Invito comunque alla lettura integrale del documento, che è di grande valore.
Quello che segue è l’equivalente di un reaction video di youtube, però di un documento scritto e in forma di articolo.
Questioni etiche
Dopo aver introdotto l’argomento, dimostrando di avere padronanza anche tecnica delle varie sfaccettature recenti in materia di IA, gli autori si pongono la domanda: quale dignità morale possiamo attribuire a questi strumenti?
Le osservazioni che seguono sono molto puntuali.
Da una malattia si può imparare tanto, così come si può imparare tanto da un abbraccio di riconciliazione, e persino anche da un semplice tramonto. Tante cose che viviamo come essere umani ci aprono orizzonti nuovi e ci offrono la possibilità di raggiungere una nuova saggezza. Nessun dispositivo, che lavora solo con i dati, può essere all’altezza di queste e di tante altre esperienze presenti nelle nostre vite.
Riecheggia poi forte in un passaggio la posizione sostenuta ne L’Ape e l’Architetto3
L’attività tecnico-scientifica non ha carattere neutro, essendo un’impresa umana che chiama in causa le dimensioni umanistiche e culturali dell’ingegno umano
Si passa poi alla slide interna di IBM, anche questa ormai meme di internet, ma detta meglio
Tra una macchina e un essere umano, solo quest’ultimo è veramente un agente morale, cioè un soggetto moralmente responsabile che esercita la sua libertà nelle proprie decisioni e ne accetta le conseguenze
E poi un monito a chi ha il potere di mettere in atto o di regolamentare le applicazioni di queste nuove tecnologie
Poiché una causalità morale in senso pieno appartiene solo agli agenti personali, non a quelli artificiali, ha massima rilevanza l’essere in grado di identificare e definire chi sia responsabile dei processi di IA, in particolare di quelli che includono possibilità di apprendimento, correzione e riprogrammazione.
Una chiara indicazione di come attribuire le responsabilità in caso di delega ad un processo automatico di una decisione che dovrebbe ricadere su un umano
Chi usa l’IA per compiere un lavoro e ne segue i risultati crea un contesto nel quale egli è in ultima analisi responsabile del potere che ha delegato.
E infine una inaspettata presa di posizione sui rapporti di forza dettati dalla cessione di (grandi quantità di) informazioni personali
Infatti, i dati non si limitano a trasmettere informazioni, ma veicolano anche una conoscenza personale e relazionale, la quale, in un contesto sempre più digitalizzato, può diventare un potere sull’individuo.
Seguono molte altre considerazioni giuste e condivisibili su lavoro, educazione, armi e guerra, considerazioni che sembrano scritte da intellettuali di sinistra, non dal clero dell’istituzione che ho sempre immaginato come nemica.
Di maledizioni e altre sciocchezze
Esiste una maledizione che aleggia sulle persone di sinistra: “morirete democristiani”4.
Ecco, è una maledizione che ho sempre preso molto sul serio. Man mano che crescevo, spesso mi trovavo a confrontarmi nella mia arena interiore con queste parole, cercando di misurare se stessi veramente diventando meno radicale, meno fedele ai miei principi di gioventù. Questo è sicuramente successo, spero più per una diversa comprensioni di quei principi che di un loro tradimento. Ma quello che è successo con questa lettura mi ha dato modo di inquadrare questa maledizione in un’altra ottica: e se fosse la DC a muoversi verso di noi? Forse moriremo democristiani perché i democristiani si saranno fatti comunisti?
- L’insieme di tecniche per la creazione di algoritmi statistici che, da un insieme di dati, estrapola comportamenti non manifesti. In italiano anche detto apprendimento automatico. ↩︎
- Una riproduzione artificiale delle capacità intellettuali umane. ↩︎
- La Scienza non è neutra. ↩︎
- Scopro che origina da un titolo del Manifesto che usava l’espressione in senso contrario ma, come molto spesso nella storia, le parole profferite da qualcuno in un senso possono rigirarsi e torcersi nel significato opposto, con una ironia difficile da ignorare. ↩︎
