Intelligente, ma può migliorare

Antonio Santangelo • mar 16, 2023

Antonio Santangelo

La vicenda di Chat GPT ha destato grande curiosità, attese, timori riguardo l’intelligenza artificiale.
Ciò che si può dire sinora è che l’IA non sostituirà l’uomo, che non è ancora intelligenza umana e che la sua pericolosità è legata al modo in cui si utilizza. Ma è anche una grande opportunità.

La nuova applicazione di OpenAi è una chatbot, software che consente di interagire in linguaggio naturale, predisponendo output su richiesta degli utenti: articoli, saggi, lettere. La chatbot utilizza un algoritmo predefinito che attinge a un set di dati raccolti dalla rete, controllati e ripuliti da eventuali contenuti poco accettabili. Le interazioni con un pubblico vasto ed eterogeneo servono poi ad allargare, migliorare i temi trattati, in molti casi precisandone e approfondendo i significati. 

Il meccanismo è quello del machine learning, ampiamente utilizzato in applicazioni di automazione industriale; l’algoritmo riproduce un processo e modifica il comportamento dello stesso sulla base dei dati che via via si producono. Si crea così un’altra opportunità, la raccolta di dati nel tempo consente di individuare le logiche di funzionamento e quindi di fare previsioni sui passi successivi: si sfrutta la predittività dell’evoluzione dei fenomeni.

Analisi e previsione sono funzioni umane, ma la capacità di calcolo dei moderni sistemi ottiene un’efficacia concorrente con quella umana.

L’estrapolazione di queste caratteristiche si presta a previsioni mirabolanti o catastrofiche: la cancellazione di posti di lavoro, l’avvento di una società del controllo simil “Grande fratello” orwelliano. I rischi non stanno, al solito, nella tecnologia in sé, ma nei suoi utilizzi. Il riconoscimento facciale viene utilizzato in Cina come strumento di controllo sociale, l’affidamento a automi-soldato in azioni di guerra può generare catastrofi, e via elencando. 

La soluzione sta nel conoscere a fondo la tecnologia, analizzarne gli effetti attraverso l’utilizzo controllato, usare il principio di cautela nel regolarne i campi di applicazione.


L’uso dei chatbot e dell’IA avrà un sicuro impatto sulle modalità di lavoro, e vi saranno attività e settori che potranno subire modifiche. McKinsey, nel report "The future of employment" del 2013 (alquanto datato), prevedeva che il 47% dei posti di lavoro negli Stati Uniti potesse essere a rischio. Oggi preoccupa di più il big resignment, le dimissioni, da parte di giovani lavoratori insoddisfatti dei livelli salariali o delle condizioni di lavoro. Più sensate appaiono le perplessità degli scienziati cognitivi sull’impatto sociale di un utilizzo acritico dell’IA: affidarsi alla predittività può essere una trappola, si può creare il meccanismo della profezia autoavverantesi (se penso che un evento sia molto probabile, mi comporterò perché si verifichi, o non farò niente per impedirlo). Può essere la negazione della capacità di autodeterminazione degli umani, che la scienza e la filosofia (occidentali) hanno impiegato secoli a sfatare, contrapponendo l’intelletto umano alla fatalità di un destino già scritto.


Per ora possiamo concentrarci sulle iniziative dei principali operatori dell’offerta: i più accreditati sono Microsoft e Alphabet, concorrenti nell’accoppiare le chatbox ai motori di ricerca. OpenAI - l’iniziativa sponsorizzata da Microsoft che ha dato vita a ChatGPT, ha lanciato il mese scorso ChatGPT Plus, un servizio premium, e ha recentemente introdotto un'API (interfaccia per condividere servizi di comunicare tra applicazioni) che consente di integrare la tecnologia ChatGPT in applicazioni, siti web, prodotti e servizi di terzi.

Sulla base di un tariffario a consumo l'API può permette di generare nuove esperienze d’uso. I primi clienti non hanno tardato ad affacciarsi. TechCrunch ha pubblicato un servizio in cui racconta alcune esperienze: Shopify utilizza l'API per mettere a disposizione dei clienti un personal shopper dedicato; Ask Instacart è il servizio che consente ai clienti di Instacart di ricevere ottenere suggerimenti di acquisti di cibo, “personalizzati” sulla base di dati acquisiti, tra le offerte dei partner commerciali dell'azienda.

L’Economist racconta il fenomeno relativo all’IA come “esplosione del Cambriano” ( il periodo in cui la Terra passò in breve “dall’essere popolata da organismi semplici e unicellulari a ospitare una multiforme varietà di forme di vita”); prolificità testimoniata dal fatto che, secondo aziende di ricerca, esistono già più di 500 startup di IA generativa. 

Attorno al fenomeno permangono ancora parecchi dubbi, anche legali, su queste applicazioni, suddivise equamente tra preoccupazioni relative ai diritti d’autore e rischi per la sicurezza.

Dal punto di vista delle promesse del mercato, chi risulta indubbiamente vincente sono i fornitori delle forti potenze di calcolo indispensabili per costruire modelli di elaborazione e per istruirne gli algoritmi, oltre ai data center e i servizi di cloud computing per ospitarli e renderli accessibili.


Come al solito, l’Europa è più cauta degli Usa riguardo la prevenzione di possibili utilizzi dannosi o criminali. L’Europa e l’Italia hanno affrontato per tempo le complessità dell’evoluzione dell’IA, e già nel 2018 si sono preoccupati di predisporre rapporti che affrontano i rischi sull’uso dell’IA. La Commissione ha definito un livello minimo di affidabilità dell'IA: deve rispettare i diritti fondamentali, la regolamentazione applicabile e i principi e i valori fondamentali, garantendo uno "scopo etico"; deve essere affidabile e tecnicamente solida poiché, anche con buone intenzioni, una mancanza di padronanza tecnologica può causare danni non intenzionali.

Per l’Italia AGID ha prodotto il report "L’IA al servizio del cittadino". A proposito dei principi da salvaguardare sostiene: “Nell’ambito dell’etica alcuni problemi sono sollevati dal funzionamento dell’Intelligenza Artificiale, vale a dire quelli della qualità e della neutralità dei dati, della responsabilità di chi utilizza gli algoritmi, della trasparenza e dell’apertura di questi ultimi, nonché della tutela della privacy.


Photo: Tara Winstead on Pexels.


20 feb, 2024
Politica Aziendale
Autore: Antonio Santangelo 20 feb, 2024
Il 2023 è stato dichiarato dalla Ue l’anno europeo delle competenze, in riconoscimento del fatto che le due transizioni, ecologica e digitale, mettono sotto stress sistemi dell’istruzione e della formazione non sufficientemente adeguati ad accompagnarle.  La sfida epocale, non limitata all’Europa, è adeguare rapidamente strategie e strutture per essere in condizione di trarne vantaggio. In Italia è il mondo educativo, istruzione e formazione vocazionale, chiamato a cambiare
Share by: