Categorie
etica

Litigate Etiche

Chiudiamo l’anno con un dietro le quinte. Quando pensate a un gruppo di lavoro su Etica e AI pensate a una tavola rotonda con tante persone a modo che dialogano tranquillamente? Vi stupireste a sapere delle litigate etiche che capitano.

Accade in due fasi, la prima quando possono essere suggerite delle limitazioni all’utilizzo di una tecnologia o metodologia specifica, in contesti definiti e noti. Considerate che non sempre è soltanto una discussione libera. Se si partecipa come dipendente di un’azienda si tende a difendere il prodotto, il cliente, il business dell’azienda. I propri valori personali contano fino a un certo punto, e si litiga meno cercando più spesso il dialogo e il compromesso.

Persone che urlano a simboleggiare le litigate etiche.
Persone che litigano (Stable Diffusion 2.1)

La seconda, invece, quando vengono toccati i valori personali e le cose diventano incandescenti. Nulla di diverso di un piacevole scambio di opinioni tra due ultras, due fondamentalisti di qualunque categoria. Siamo pur sempre esseri umani, così le giornate storte, la stanchezza, il proprio vissuto, l’antipatia, possono portarci a smettere di ascoltare per comprendere, ma parlare (o urlare) per zittire.

Perché vi racconto tutto questo? Perché quando si partecipa a un gruppo di lavoro, soprattutto con formazione e provenienze diverse, portiamo noi stessi con tutti i nostri bias e ci confrontiamo (scontriamo) con i bias altrui. Quando parliamo di Etica e AI, da un punto di vista più tecnico, facciamo lo stesso con i dati che abbiamo a disposizione. L’obiettivo non è avere l’utopico dataset senza bias, ma conoscere dove i bias si annidano per

  • rimuoverli, se possibile e non inficiano lo studio
  • annotarne la presenza, per l’uso che ne faremo a tutti i livelli
  • usarli, se necessario e sicuro
Immagine di un robot - tutor che impedisce a un umano di fare delle azioni che reputa sbagliate.
Un futuro tutore artificiale

Tenendo sempre presente che ogni dataset, e di conseguenza ogni AI, è una fotografia, nel tempo e nello spazio, della cultura che lo ha creato. Pensate a un assistente virtuale addestrato duecento anni fa: la sua visione del mondo, i suoi valori, i suoi bias, la sua distinzione tra cosa è bene e cosa è male.
Immaginate le litigate etiche che faremmo se fosse questa AI a prendere le decisioni per noi.

Buon 2023 a tutti!