In Craft collegamento con SingularityU Milan con un incontro dal titolo
'AI Ethics - Quali domande porsi?'Fruibile in contemporanea:
- in presenza nella sede milanese di IBM
- in live streaming con la webapp di SingularityU Milan e nei
metaversi di Spatial.io e Craft World.
Conduce David Orban, con l'intervento di esperti di settore
Governare lo sviluppo dell'intelligenza artificiale è ormai considerato un imperativo imprescindibile se si vuole assicurare un mondo più inclusivo, sostenibile e pacifico. L'AI è una tecnologia il cui esponenziale sviluppo sta ponendo all'attenzione della comunità globale l’importanza della definizione di un quadro di riferimento condiviso che abbia un'impostazione etica come proprio fondamento e che veda come fine ultimo la protezione dei diritti e della dignità dell'essere umano.
Negli ultimi tempi, da parte di istituzioni e gruppi internazionali, si stanno moltiplicando le iniziative di definizione di regolamenti e documenti di indirizzo per governare i processi in atto. Ad esempio nel 2021 l'UNESCO ha prodotto la cosiddetta "Raccomandazione sull’etica dell’intelligenza artificiale", il primo standard globale sull'etica dell'AI, strumento normativo che "fissa i principi etici della stessa nel rispetto dei diritti e delle libertà fondamentali dell'essere umano", con l'obiettivo di fornire strumenti per "identificare, monitorare e valutare i benefici, le preoccupazioni e i rischi dei sistemi di intelligenza artificiale". La Raccomandazione è stata adottata da 193 Paesi. In Europa nel giugno 2023 è stato approvato dal Parlamento europeo l'"Artificial Intelligence Act" (AI Act) un regolamento sull'AI la cui ambizione è istituire un "quadro giuridico uniforme volto a regolare lo sviluppo, la commercializzazione e l'uso dei sistemi di intelligenza artificiale in conformità con i valori e i diritti dell'Unione Europea".
Sono stati definiti come principi fondamentali per un'AI etica: la proporzionalità e il divieto di nuocere; la sicurezza e la protezione; il diritto alla privacy e alla protezione dei dati; la governance e la collaborazione multi-stakeholder e adattiva; la responsabilità ("accountability"); la trasparenza e la spiegabilità; la supervisione e la determinazione umana; la sostenibilità; la consapevolezza e l'alfabetizzazione; l'equità e la non discriminazione.
Governare la "scatola nera" dell'AI sarà un'impresa difficile, ma "abbiamo la responsabilità di gestire questa tecnologia nel migliore dei modi possibili"; sarà nostro compito trasformare la difficoltà caotica in una complessità gestibile dalle macchine ricordando che non ha senso "cercare di imitare gli esseri umani attraverso l'AI, dobbiamo invece sfruttare ciò che le macchine, inclusa l'AI, fanno meglio" (L. Floridi). Lo strumento a nostra disposizione è il design ovvero "l'arte di risolvere un problema sfruttando vincoli e possibilità per soddisfare i requisiti prefissati in vista di un obiettivo", e questo obiettivo è il progetto comune e condiviso di modellare con lungimiranza etica una società più giusta.
Io, di queste cose, me ne intendo pochissimo pero capisco la necessità di regolare questo mondo virtuale , in modo che non sorgano problemi. Buon week end.
RispondiElimina