Nonostante il ruolo importante e sempre crescente dell’intelligenza artificiale in molte parti della societa moderna, c’e pochissima politica o regolamentazione che disciplina lo sviluppo e l’uso dei sistemi di intelligenza artificiale negli Stati Uniti Le aziende tecnologiche sono state in gran parte lasciate a regolamentarsi in questa arena, potenzialmente portando a decisioni e situazioni che hanno raccolto critiche.
Google ha licenziato un dipendente che ha pubblicamente sollevato preoccupazioni su come un certo tipo di IA puo contribuire ai problemi ambientali e sociali. Altre societa di intelligenza artificiale hanno sviluppato prodotti utilizzati da organizzazioni come il dipartimento di polizia di Los Angeles, dove e stato dimostrato che rafforzano le politiche esistenti di pregiudizio razziale.
Ci sono alcune raccomandazioni e linee guida del governo sull’uso dell’IA. Ma all’inizio di ottobre 2022, l’Ufficio per la politica scientifica e tecnologica della Casa Bianca ha ampliato le linee guida federali rilasciando il progetto per una Carta dei diritti dell’IA.
L’Office of Science and Technology afferma che le protezioni delineate nel documento dovrebbero essere applicate a tutti i sistemi automatizzati. Il progetto enuncia “cinque principi che dovrebbero guidare la progettazione, l’uso e l’implementazione di sistemi automatizzati per proteggere il pubblico americano nell’era dell’intelligenza artificiale”. La speranza e che questo documento possa fungere da guida per aiutare a impedire ai sistemi di intelligenza artificiale di limitare i diritti dei residenti negli Stati Uniti.
In qualita di informatico che studia i modi in cui le persone interagiscono con i sistemi di intelligenza artificiale, e in particolare come l’anti-nero media tali interazioni, trovo che questa guida sia un passo nella giusta direzione, anche se presenta dei buchi e non e applicabile.
Migliorare i sistemi per tutti
I primi due principi mirano ad affrontare la sicurezza e l’efficacia dei sistemi di intelligenza artificiale, nonche il principale rischio che l’IA favorisca la discriminazione.
Per migliorare la sicurezza e l’efficacia dell’IA, il primo principio suggerisce che i sistemi di IA dovrebbero essere sviluppati non solo da esperti, ma anche con il contributo diretto delle persone e delle comunita che utilizzeranno e saranno interessate dai sistemi. Le comunita sfruttate ed emarginate sono spesso lasciate ad affrontare le conseguenze dei sistemi di IA senza avere molta voce in capitolo nel loro sviluppo. La ricerca ha dimostrato che il coinvolgimento diretto e genuino della comunita nel processo di sviluppo e importante per l’implementazione di tecnologie che hanno un impatto positivo e duraturo su tali comunita.
Il secondo principio si concentra sul noto problema della discriminazione algoritmica all’interno dei sistemi di IA. Un noto esempio di questo problema e il modo in cui gli algoritmi di approvazione dei mutui discriminano le minoranze. Il documento chiede alle aziende di sviluppare sistemi di intelligenza artificiale che non trattino le persone in modo diverso in base alla loro razza, sesso o altro stato di classe protetta. Suggerisce alle aziende di utilizzare strumenti come le valutazioni dell’equita che possono aiutare a valutare come un sistema di intelligenza artificiale puo avere un impatto sui membri delle comunita sfruttate ed emarginate.
Questi primi due principi affrontano i grandi problemi di pregiudizio ed equita riscontrati nello sviluppo e nell’uso dell’IA.
Privacy, trasparenza e controllo
Gli ultimi tre principi delineano modi per dare alle persone un maggiore controllo quando interagiscono con i sistemi di intelligenza artificiale.
Il terzo principio riguarda la privacy dei dati. Cerca di garantire che le persone abbiano piu voce in capitolo su come vengono utilizzati i loro dati e siano protetti da pratiche di dati abusivi. Questa sezione mira ad affrontare le situazioni in cui, ad esempio, le aziende utilizzano un design ingannevole per manipolare gli utenti e fargli divulgare i propri dati. Il progetto richiede pratiche come non prendere i dati di una persona a meno che non acconsentano e chiedere in un modo comprensibile per quella persona.
Il prossimo principio si concentra su “avviso e spiegazione”. Sottolinea l’importanza della trasparenza: le persone dovrebbero sapere come viene utilizzato un sistema di IA e i modi in cui un’IA contribuisce ai risultati che potrebbero influenzarli. Prendi, ad esempio, l’Amministrazione per i servizi all’infanzia di New York City. La ricerca ha dimostrato che l’agenzia utilizza sistemi di intelligenza artificiale in outsourcing per prevedere il maltrattamento sui minori, sistemi che la maggior parte delle persone non si rende conto che vengono utilizzati, anche quando vengono indagati.
La Carta dei diritti dell’IA fornisce una linea guida secondo cui le persone a New York in questo esempio che sono interessate dai sistemi di intelligenza artificiale in uso dovrebbero essere informate del coinvolgimento di un’IA e avere accesso a una spiegazione di cio che ha fatto l’IA. La ricerca ha dimostrato che creare trasparenza nei sistemi di intelligenza artificiale puo ridurre il rischio di errori o abusi.
L’ultimo principio dell’AI Bill of Rights delinea un quadro per le alternative umane, la considerazione e il feedback. La sezione specifica che le persone dovrebbero essere in grado di rinunciare all’uso dell’IA o di altri sistemi automatizzati a favore di un’alternativa umana ove ragionevole.
Come esempio di come questi ultimi due principi potrebbero funzionare insieme, prendi il caso di qualcuno che richiede un mutuo. Sarebbero informati se fosse stato utilizzato un algoritmo di intelligenza artificiale per considerare la loro applicazione e avrebbero la possibilita di rinunciare a tale uso a favore di una persona reale.
Linee guida intelligenti, nessuna applicabilita
I cinque principi stabiliti nella Carta dei diritti dell’IA affrontano molte delle questioni sollevate dagli studiosi sulla progettazione e l’uso dell’IA. Tuttavia, questo e un documento non vincolante e attualmente non applicabile.
Potrebbe essere troppo sperare che l’industria e le agenzie governative mettano in pratica queste idee nei modi esatti sollecitati dalla Casa Bianca. Se la battaglia normativa in corso sulla privacy dei dati offre una guida, le aziende tecnologiche continueranno a spingere per l’autoregolamentazione.
Un altro problema che vedo all’interno della Carta dei diritti dell’IA e che non richiama direttamente i sistemi di oppressione – come il razzismo o il sessismo – e come possono influenzare l’uso e lo sviluppo dell’IA. Ad esempio, gli studi hanno dimostrato che ipotesi imprecise integrate negli algoritmi di intelligenza artificiale utilizzati nell’assistenza sanitaria hanno portato a cure peggiori per i pazienti neri. Ho sostenuto che il razzismo anti-nero dovrebbe essere affrontato direttamente durante lo sviluppo di sistemi di intelligenza artificiale. Sebbene la Carta dei diritti dell’IA affronti idee di pregiudizio ed equita, la mancanza di attenzione sui sistemi di oppressione e una lacuna notevole e un problema noto all’interno dello sviluppo dell’IA.
Nonostante queste carenze, questo progetto potrebbe essere un passo positivo verso sistemi di intelligenza artificiale migliori e forse il primo passo verso la regolamentazione. Un documento come questo, anche se non una politica, puo essere un potente riferimento per le persone che sostengono cambiamenti nel modo in cui un’organizzazione sviluppa e utilizza i sistemi di intelligenza artificiale.