Il nostro Presidente, Dott. Marco Manca, è stato ospite di “Sanità2030 - Le nuove sfide dell’innovazione tecnologica”, tenutosi il 6 Luglio u.s. a Napoli. Era invitato a contribuire ai lavori del programma “I nuovi significati del dato nell’era digitale della scienza medica”, nella seconda sessione intitolata “L’approccio scientifico verso l’uso dell’intelligenza artificiale in medicina” sotto la moderazione del Direttore Centro Nazionale per la Telemedicina e le Nuove Tecnologie Assistenziali, Istituto Superiore di Sanità Prof. Francesco Gabbrielli, con un intervento dal titolo “Come fare ricerca in life science con l’intelligenza artificiale”.
Il nostro è partito da una breve introduzione dedicata all’atteggiamento a volte (troppo spesso?) irrazionale di quanti parlino di intelligenza artificiale, provenendo da campi di presunta/auspicabile applicazione dello strumento, facendo ricorso ad argomenti antropomorfizzanti, col grottesco risultato di tingere l’immaginario collettivo delle tinte evocate dalla fantascienza di multivac, hal-9000, o sonny, e distraendo pertanto la conversazione dall’importante impatto che queste tecnologie stanno già avendo dove vengano introdotte, e dalla riflessione collettiva sul tipo di società che queste tecnologie dovrebbero favorire, o meno.
In medicina e life science questo atteggiamento è acuito dalla peculiare distribuzione della letteratura peer-reviewed internazionale. Per dare delle proporzioni, fatta 104 il numero di articoli che discutano dell’applicazione dell’intelligenza artificiale o del machine learning ad un certo dominio, solo 102 presentano qualche forma di esperienza sperimentale o pilot, la stragrande maggioranza delle pubblicazioni essendo review narrative (non sistematiche ed esaustive) ed opinioni di esperti… ancora più sfidante è il fatto che quando si escludano le esperienze troppo piccole per numero di soggetti coinvolti o osservazioni, e quelle affette da difetti grossolani di disegno (errori nella strutturazione dei campioni di addestramento e di validazione, errori nel disegno del metodo di validazione, …), si resta spesso con 101 o meno articoli.
È possibile, per fortuna, trasferire saggezza da un dominio agli altri, e per riflettere sull’intelligenza artificiale e sulle implicazioni socio-tecniche della sua introduzione, possiamo partire dall’analisi di altri domini dell’attività umana, documentati più rigorosamente. Il primo esempio è stato il successo dell’intelligenza artificiale nel conquistare gli scacchi e poi il go [1], un successo così scioccante che tre anni dopo la sconfitta dall’IA il campione del mondo Lee Sedol annunciò di voler ritirarsi anticipatamente in quanto frustrato dall’impossibilità di sconfiggere quella “entità”[2].
Eppure all’inizio di quest’anno un umano ha nuovamente sconfitto l’AI, utilizzando una strategia di gioco identificata con l’aiuto di una esplorazione a forza bruta dello stile di gioco dell’IA che ha permesso di identificare della tattiche in grado di indurre il sistema in fallo, pur essendo talmente banali da non essere applicabili neppure contro un giocatore umano dilettante[3]. Pare dunque che il sistema IA avesse sviluppato un modello dinamico dell’evoluzione delle partite, ma non avesse acquisito una “comprensione” del gioco, un modello delle regole e della logica del gioco, cadendo perciò vittima di tattiche diversive inefficaci, come detto, contro un principiante umano. Ancora più interessante è forse l’osservazione che la diffusione di una IA campione di go ha fatto evolvere lo stile di gioco degli umani, introducendo maggiore varietà di strategie[4].
Un altro esempio di sfida, sulla bocca di tutti, in cui l’IA ha superato le performance degli umani, è quello della predizione del folding delle proteine a partire dalle sequenze aminoacidiche[5]. Lasciando da parte considerazioni su quanto la narrativa del trionfo della IA abbia offuscato l’opera di ingegneria (e ricerca in bioinformatica) portata avanti dall’equipe alle spalle del risultato, è importante notare come alcune limitazioni del sistema fossero subito evidenti agli esperti[6] , e notabilmente comuni al caso precedente (buona capacità di prevedere l’evoluzione di alcuni scenari di folding, ma mancato progresso nella comprensione di quali proprietà emergenti dai meccanismi fondamentali in gioco fossero coinvolti nel fenomeno) nonostante il pubblico, ed inevitabilmente i professionisti di domini non immediatamente adiacenti, fosse esposto ad un reporting sensazionalistico ed acritico, incapace di aiutare a formare una opinione informata sulla portata dell’innovazione, e su quel che non era. Eppure, nonostante continue speculazioni su come l’IA capace di predire il folding delle proteine, quando fu messo alla prova dei fatti[7] i risultati confermarono quanto detto dagli esperti fin dall’inizio: l’IA non conferma le proprie performance quando è richiesta estrapolazione a condizioni differenti da quelle di training (ad esempio binding di sequenze proteiche diverse) ed il fallimento “catastrofico” rivela la mancata cattura di modelli fisici della realtà su cui si è addestrato. Ma i fallimenti stessi, indicano la strada verso fenomeni interessanti che contribuiscono ad estendere ed approfondire l’indagine umana sui fenomeni studiati.
Ed è a questo punto, che il Presidente Dott Manca ha attratto l’attenzione degli astanti sulla decisione di aver finora evitato di menzionare i nomi dei prodotti di ricerca discussi, e di cancellarne i nomi sulle diapositive. È infatti policy esplicita dell’evento che i relatori non possano menzionare prodotti commerciali e marchi, e tutti questi prodotti di ricerca sono risultati dell’investimento di compagnie private.
L’accesso pre-marketing a queste tecnologie crea opportunità di esplorarne i difetti, comprendere i limiti epistemici catturati dai dati su cui sono state addestrate, e mappare i limiti metodologici dell’IA. Così una competizione studentesca [8] può essere l’occasione per dimostrare un altro limite dell’applicazione dell’IA al mondo reale derivante dal metodo basato su previsioni fenomenologiche avulse dall’inferenza causale: l’IA non è in grado di prevedere il folding di proteine che formeranno tasche di contenimento per ioni, e non è in grado di gestire la differenza tra la propria previsione ed il dato reale. Ma una continua campagna mediatica tesa a proporre presunti rischi esistenziali, derivanti da una irrealistica accelerazione imprevista dell’IA, per favorire la cattura da parte di enti privati dello spazio di mercato che si apre con l’IA stessa, rischia di privare l’umanità della possibilità di accedere rapidamente ed in modo circolabile allo studio delle modalità di fallimento di questi artefatti umani.
Per dare un esempio di come l’introduzione di nuovi artefatti e nuove tecnologie acceleri ed arricchisca la curiosità umana, può essere utile guardare ad un altro risultato della ricerca privata, un claim di superiorità dei computer quantistici[9], che ha immediatamente scatenato un susseguirsi di sottomissioni ad arXiv, il noto preprint server, con varie ottimizzazioni e miglioramenti agli approcci classici[10,11] per risolvere il problema su cui si basava il claim di supremazia proposto dal produttore del computer quantistico, superando il precedente gold-standard ed i risultati del computer quantistico, di buona misura.
Anche in ambito medico cominciano a comparire pubblicazioni[12] che usano l’IA per complementare l’esplorazione umana, fondamentalmente sotto la spinta della richiesta di interpretabilità di un modello per la sua approvazione all’uso sull’uomo. Ed anche in ambito medico l’IA stimola un superamento di alcune usanze che si sono stabilite come gold standard per inerzia. L’esempio forse più eclatante è la rapida maturazione della conversazione intorno all’etica. In pochi anni la conversazione è scattata dal cercare di produrre strumenti di compliance [13,14] tesi a generare una certificazione di fidatezza, ad una aperta critica dei valori umani emergenti dalle relazioni e dalle loro dinamiche[15,16], che rimette in discussione la comprensione dei dati e delle infostrutture che sostengono le nostre società e la cura.
Si potrebbe scherzosamente chiosare parafrasando la saggezza del web: il miglior modo per ottenere una buona risposta a volte è offrire una risposta sbagliata... e l'IA è capace di risolvere il problema di scala di questa dinamica 😋
Le diapositive possono essere visionate cliccando qui.
Bibliografia:
- DOI: 10.1126/science.aar6404
- https://en.yna.co.kr/view/AEN20191127004800315
- https://goattack.far.ai/pdfs/go_attack_paper.pdf?uuid=WgOkT29w1fP7rG7p1682
- DOI: 10.1073/pnas.2214840120
- DOI: 10.1038/s41586-021-03819-2
- https://www.icr.ac.uk/blogs/the-drug-discoverer/page-details/reflecting-on-deepmind-s-alphafold-artificial-intelligence-success-what-s-the-real-significance-for-protein-folding-research-and-drug-discovery
- DOI: 10.15252/msb.202211081
- DOI: 10.1371/journal.pone.0282689
- DOI: 10.1038/s41586-023-06096-3
- https://arxiv.org/pdf/2306.14887.pdf
- https://arxiv.org/abs/2306.16372
- DOI: 10.1038/s41591-023-02396-3
- https://digital-strategy.ec.europa.eu/en/library/ethics-guidelines-trustworthy-ai
- https://digital-strategy.ec.europa.eu/en/library/assessment-list-trustworthy-artificial-intelligence-altai-self-assessment
- DOI: 10.1016/j.patter.2021.100205
- DOI: 10.1126/science.adi0248
Comments
Post a Comment