Se ne è parlato questa mattina a Roma nel corso dell’evento organizzato dall’Associazione italiana brokers di assicurazioni e riassicurazioni.
«L’utilizzo dell’intelligenza artificiale nel settore assicurativo e del brokeraggio è agli inizi, ma da qui a breve si prospettano sviluppi molto significativi con benefici rilevanti anche per i clienti finali». Lo ha affermato Flavio Sestilli, presidente dell’Aiba (Associazione italiana dei broker di assicurazioni e riassicurazioni), questa mattina a Roma, nel corso del convegno nazionale dell’associazione dal titolo AI am a Broker – L’evoluzione del ruolo del Broker nell’era dell’AI: potenzialità, etica e sviluppo sostenibile.
«Una delle aree che presenterà le maggiori ricadute positive», ha evidenziato Sestilli, «è quella della prevenzione del rischio, che l’AI, grazie all’analisi dei dati, potrà rendere ancora più precisa, riducendo l’esposizione delle compagnie agli impatti di sinistri imprevisti e determinando con questo anche un’auspicabile riduzione del costo delle polizze. Ma se le opportunità sono indubbie, è bene valutare attentamente anche le implicazioni etiche e di sostenibilità di questa tecnologia, e adottare gli strumenti per farne un uso responsabile e consapevole».
In una nota, Aiba ha fatto riferimento a uno studio McKinsey secondo cui l’intelligenza artificiale generativa “produrrà sull’economia mondiale un impatto stimabile tra 2,6 e 4,4 migliaia di miliardi di dollari all’anno, più del Pil dell’Italia. Nel nostro Paese, calcola il Politecnico di Milano, il mercato dell’intelligenza artificiale è cresciuto del 52% nel 2023 e sei grandi imprese italiane su dieci hanno già avviato almeno un progetto di sviluppo in tale direzione”.
Tuttavia, durante i lavori, si è sottolineato come “sia necessaria anche un’attenta valutazione dei rischi e delle implicazioni connesse con questa tecnologia”.

L’argomento è stato approfondito in modo particolare da Tiziana Catarci, direttrice del dipartimento di ingegneria informatica, automatica e gestionale A. Ruberti presso l’Università degli Studi di Roma La Sapienza. «I sistemi di apprendimento automatico si basano su dati creati dagli esseri umani. Ciò significa che qualsiasi pregiudizio, conscio o inconscio, in loro è incorporato negli algoritmi e a volte anche amplificato. Gli algoritmi, in altre parole, anche se neutri, riproducono e aumentano le disuguaglianze o la discriminazione esistenti (di genere, di etnia, culturali, sociali…)», ha affermato. «Sono fondamentali consapevolezza e formazione. Insieme alle competenze digitali, è necessario sviluppare gli strumenti cognitivi per discernere l’informazione attendibile e analizzarla in modo critico e responsabile. Chiave in questa direzione è il contributo delle discipline classiche (come logica, filosofia, matematica, storia e latino) così come il pensiero critico (etica e morale)», ha aggiunto Catarci, che ha poi concluso sottolineando: «L’introduzione di un quadro normativo riferito all’intelligenza artificiale è certamente un passo necessario. Quando sono state inventate le automobili, ad esempio, sono state definite anche le regole del traffico, oltre a strisce pedonali, semafori, airbag, ecc. Molte iniziative utili mirano a introdurre la visione etica (e incentrata sull’essere umano) dell’IA. Tuttavia, l’etica non è sufficiente, perché riguarda la responsabilità individuale mentre la politica pubblica riguarda la responsabilità sociale. Non possiamo semplicemente affidarci alle maggiori responsabilità delle imprese».
Nelle assicurazioni e nell’intermediazione, tra gli ambiti in cui si prospettano i maggiori sviluppi legati all’AI c’è quello dell’analisi del rischio. «L’intelligenza artificiale permetterà di sofisticare e personalizzare l’offerta come mai accaduto prima, se non con impegno di tempo e mezzi molto importante e oneroso», ha dichiarato Sestilli. «Attraverso l’intelligenza artificiale posso per esempio analizzare le immagini satellitari e valutare lo stato di manutenzione del tetto di un immobile, oppure calcolare la frequenza specifica locale di eventi climatici avversi o la concentrazione di rischio in una determinata località».
Inoltre, «l’AI può già, e potrà in misura crescente, efficientare i processi nel nostro settore, specialmente quelli semplici e ripetitivi, così come migliorare la gestione delle relazioni con la clientela – grazie a chatbot e a sistemi di gestione dei sinistri – e permettere agli operatori di individuare nuovi target grazie ad analisi migliori e adeguate». Anche nel settore assicurativo e dell’intermediazione, ha aggiunto Sestilli, «occorre considerare diverse potenziali implicazioni, in particolare la gestione dei dati personali, le ricadute etiche ma più di tutto il rischio di non correttezza delle informazioni. Dobbiamo cercare di essere più che sicuri che tutto ciò che l’AI elabora, sia corretto. I controlli dovranno essere stringenti e ferrei». (fs)
© RIPRODUZIONE RISERVATA