The TrAIbe

“Adesso aggiungere ChatGPT. Dosi consigliate? Q.B.”

Etica, Intelligenza Artificiale e ChatGPT nei mercati Pharma & Life Science: a che punto siamo arrivati?

30/06/2023
AI, ChatGPT
7 min di lettura

L'Intelligenza Artificiale (IA) ha rivoluzionato molti settori, incluso Pharma & Life Science. Grazie alla sua capacità di elaborazione dei dati e alle sue capacità intuitive, l'IA offre opportunità senza precedenti per la ricerca, la scoperta di nuovi farmaci, la personalizzazione della cura dei pazienti e molto altro ancora. Uno degli strumenti più avanzati di IA è la Chat GPT, un modello di linguaggio che può interagire con gli utenti attraverso un’interfaccia conversazionale e l’utilizzo del linguaggio naturale, fornendo risposte pertinenti e informate. 

Ok questa è la parte che sappiamo ormai tutti. Ma facciamo un passo avanti e guardiamo oltre la nuvola di hype che si è creata su questo tema. 

Possiamo aggiungere che senza un modello di train dedicato e strutturato l’Intelligenza Artificiale potrebbe non esser così performante. Oppure che alla base di tutti i modelli di Machine Learning esiste quello che in gergo si chiama Data Set: ovvero l’insieme di dati interni all’azienda ma destrutturati che prima di esser dati in pasto all’algoritmo dell’intelligenza artificiale. Ma andiamo avanti.

AI e ChatGPT per i settori Pharma & Life Science: ostacoli ed aspettative da considerare

L'AI e ChatGPT offrono diversi vantaggi nei settori Pharma e Life Science. Innanzitutto, Consentono di accelerare i tempi di sviluppo e ridurre i costi legati alla ricerca scientifica e, di conseguenza, alla scoperta di nuovi farmaci. Inoltre, l'IA può analizzare enormi quantità di dati provenienti da studi clinici, pubblicazioni scientifiche e database, contribuendo a individuare nuove connessioni tra le diverse fonti e mettere in luce informazioni che potrebbero sfuggire all'occhio umano. ChatGPT, invece, può fornire un supporto a carattere più “interattivo” ai ricercatori, rispondendo alle loro domande e suggerendo possibili soluzioni e risposte basate sull’incrocio di una vasta gamma di informazioni.

Anche su questa seconda parte, benché del tutto vera, per gli esperti del settore si tratta di informazioni per lo più e condivise. I dati, derivanti anche dalla stessa Trueblue, attestano che le progettualità in ambito IA e anche ChatGPT iniziano ad esser sempre più diffuse, con una volontà di sperimentazione, da parte dei mercati cui ci rivolgiamo, che testimonia un potenziale “test & learn” molto significativo in termini di approccio ad un nuovo modello lavorativo e innanzitutto e soprattutto, di Change Management. La capacità cioè, da parte di aziende strutturate, regolamentate e rigide per natura, di spingere l’acceleratore e capovolgere il paradigma di processi, funzioni, organizzazione e ricerca & sviluppo, accettando il famoso rischio del cambiamento.

Nel dubbio, ti suggeriamo di scoprire di più investendo circa 8’ minuti nella nostra survey dedicata all’adozione di AI & Chat GPT. Stupiscici.

Sfide etiche nell'utilizzo dell'AI e ChatGPT

Nonostante i benefici, l'utilizzo dell'AI e ChatGPT nel settore Pharma e Life Science sollevano anche questioni etiche importanti. Innanzitutto, l'IA potrebbe sostituire in alcune attività i professionisti sanitari umani, creando preoccupazioni sulla sicurezza dei pazienti e sulla qualità dell'assistenza. Inoltre, l'AI richiede l’utilizzo di dati sensibili dei pazienti per funzionare correttamente, sollevando tematiche legate alla privacy e protezione dei dati. Per questo motivo, è essenziale garantire che i dati vengano raccolti e utilizzati in conformità alle normative e con il consenso informato dei pazienti. Inoltre, l'AI potrebbe perpetuare e ampliare le disuguaglianze nel settore sanitario se l'accesso alle tecnologie e alle cure personalizzate viene limitato alle persone più avvantaggiate da un punto di vista geografico, sociale ed economico.

Qui iniziamo ad entrare nel in un’area meno superficiale di quelle fino ad ora ampiamente esplorate. La parte più interessante è, a mio parere, quella del rischio di ampliare le disuguaglianze. Parliamoci chiaro, anche in questo caso il tema è noto ai più ma con occhi attenti si può individuare un problema potenziale ben più ampio. Anche per coloro che cercano una risoluzione al problema.

Il rischio di ampliare le disuguaglianze in ambito sanitario, Pharma e Life Science è decisamente un tema troppo grande per esser ignorato e il rischio di una mancanza di conformità alle normative, non può essere garantito “solo” dall’etica dell’AI.

Giustificare l’utilizzo dell’AI limitandosi e barricandosi dietro al concetto di un suo utilizzo etico non solo è riduttivo, ma soprattutto pericoloso.

“Etica” deriva da Ethos (ἦθος) termine greco (il cui significato, in origine, era "il posto da vivere") che può essere inteso in diversi modi. Può significare "inizio", "apparire", "disposizione" e da qui "carattere" o "temperamento". Dalla stessa radice greca deriva il termine ethikos (ἠθικός) che significa "teoria del vivere", da cui il termine moderno etica.

Con ethos popolare, nella sua accezione hegeliana e moderna, può intendersi l'insieme di quei valori e quelle norme, di quei codici di comportamento i quali, interiorizzati dall'individuo in funzione della sua integrazione sociale, costituiscono e determinano la disposizione, il carattere, il temperamento culturale di una data popolazione.

L’accezione hegeliana, moderna, forse risulta anche distante da quella contemporanea. Ahimè. Oggi l’etica così intesa si perde nei meandri di un sistema sociale provato dall’accelerazione tecnologica. Sia in senso positivo che in senso negativo.

L’unico modo, dunque, per arginare i rischi, è la norma legale. Sottoposta a procedure, scritta, chiara e non soggetta a molteplici interpretazioni quando si parla di tutela dei diritti inalienabili dell’essere umano, quali la salute.

Ma andiamo avanti…Principi etici per l'utilizzo responsabile dell'AI e ChatGPT

Abbiamo dunque provato a chiedere allo stesso ChatGPT quali possono essere i principi etici che trattano l’utilizzo dell’AI in modo responsabile. La risposta si può sintetizzare in questi tre punti:

  • Trasparenza e responsabilità: è fondamentale che gli sviluppatori di AI e Chat GPT siano trasparenti riguardo ai metodi utilizzati e alla fonte dei dati. Devono essere responsabili per eventuali errori o bias nell'algoritmo e garantire una continua supervisione umana per evitare conseguenze indesiderate.
  • Privacy e protezione dei dati: i dati dei pazienti devono essere trattati con il massimo rispetto per la privacy e la sicurezza. Gli sviluppatori devono aderire alle leggi sulla privacy e implementare misure di sicurezza adeguate per prevenire violazioni e abusi dei dati.
  • Equità e accessibilità: l'AI e la Chat GPT devono essere accessibili a tutti, indipendentemente dalla loro situazione economica o dal contesto sociale. Gli sviluppatori devono lavorare per ridurre il divario digitale e garantire che tutti abbiano pari opportunità di beneficiare delle tecnologie innovative nel settore Pharma e Life Science.

In conclusione

L'utilizzo dell'intelligenza artificiale e ChatGPT nel settore Pharma e Life Science offre opportunità straordinarie tutti i motivi elencati nei precedenti paragrafi. Tuttavia, è essenziale affrontare le questioni etiche che sorgono da questa tecnologia potentissima. Adottando principi di trasparenza, responsabilità, privacy, protezione dei dati, equità e accessibilità, possiamo garantire un utilizzo etico e responsabile dell'IA e ChatGPT, contribuendo a migliorare la salute e il benessere di tutti.

Questo è quello che in gergo chiameremmo una tendenza a tutelarsi dal rischio. Anche in questo caso ChatGpt è stata quasi impeccabile.

Il motivo per cui abbiamo scelto di affrontare l’argomento in questo modo, si lega ad una notizia recente. Ovvero l’approvazione da parte del Parlamento Europeo, dell’AI Act lo scorso 14 giugno.

Di cosa si tratta?

Un documento di legge che dovrebbe entrare in vigore non prima di un anno (si legge anche non prima del 2026) e che, pertanto, è preceduto dai lavori che la Commissione Europea sta facendo anche sull’AI Pact, un accordo volontario sulla regolamentazione dell’ AI che preceda l’entrata in vigore del regolamento europeo AI Act, e che coinvolge alcune delle maggior Big Tech e aziende europee e non, con l’obiettivo di una responsabilità condivisa in favore di uno sviluppo sicuro e sostenibile dell’Intelligenza Artificiale. (fonte)

Perché è così complesso parlare di regolamentazione dell’IA?

La risposta a questa domanda per quanto apparentemente semplice, non è affatto banale. Trattasi, infatti, della prima volta in cui un ente regolatore sceglie di adottare provvedimenti di questo tipo a tutela di rischi quali privacy, trasparenza e sì, anche disuguaglianze sociali.

Il trattamento di questa materia risulta dunque così complesso proprio per le caratteristiche intrinseche del soggetto in questione: unicità (una tecnologia con cui il nostro mondo si deve confrontare), potenza (le potenzialità sono infatti elevatissime) e versatilità (le possibili applicazioni toccano contemporaneamente diversi settori anche diversi tra di loro).

Tutti rischi e anche considerazioni non sempre semplici e non sempre oggettive che, se non regolamentate, rischiano di scontrarsi con il fisiologico bisogno di progresso e avanzamento tecnologico di cui in ogni caso abbiamo necessità, in ambito AI. E non solo.

L'apprendimento e l'innovazione vanno mano nella mano. L'arroganza del successo è di pensare che ciò che hai fatto ieri sarà sufficiente per domani.

William Pollard

I tuoi contatti
Una volta forniti i dati, uno dei nostri esperti si metterà in contatto con voi.