Intelligenza artificiale: gli ultimi sviluppi

l'indice di una mano robotica tocca l'indice di una mano umana

06 Mar Intelligenza artificiale: gli ultimi sviluppi

A cura di Matteo Tirelli

In questo 2024, TradInFo intende portare l’attenzione su un tema di attualità molto importante: l’intelligenza artificiale (IA). Ormai è l’argomento all’ordine del giorno, una sfida che coinvolge molte figure professionali che lavorano con il linguaggio e la creatività, tra cui quelle di traduttori e interpreti.

Il nostro obiettivo è quello di scoprire cos’è veramente l’IA, senza dilungarci in tecnicismi eccessivi, e come sta cambiando il nostro modo di vivere e lavorare. Crediamo che avere un approccio consapevole verso le nuove tecnologie sia la strada maestra per crescere nel settore della traduzione e dell’interpretazione.

In questo primo articolo vogliamo concentrarci su che cos’è l’intelligenza artificiale, sulle novità legislative in ambito UE e sulle recenti notizie di possibili violazioni di copyright.

Che cos’è l’Intelligenza Artificiale?

L’Intelligenza Artificiale è la capacità di una macchina di imparare, pensare e risolvere problemi in modo simile a un essere umano. Questo non significa che le macchine diventeranno coscienti come noi, ma che hanno la capacità di eseguire compiti complessi attraverso l’apprendimento automatico e l’analisi dei dati.

L’intelligenza artificiale non è una novità degli ultimi anni. Infatti, i primi studi risalgono agli anni Cinquanta del Novecento in cui il ruolo di Alan Turing è stato fondamentale nel valutare l’“intelligenza” delle macchine. Si susseguono decenni di alti e bassi nello sviluppo di questa materia dovuti, prevalentemente, ai limiti che questi strumenti presentavano nonché agli alti costi di sviluppo e manutenzione. 

Lo sviluppo preponderante dell’IA lo abbiamo, invece, a partire dagli anni 2000 con l’avvento del deep learning, delle reti neurali e del forte sviluppo in ambito Internet e hardware. In definitiva, la crescita dell’IA è sempre stata direttamente proporzionale allo sviluppo hardware e software, nonché dell’accesso degli utenti a una nuova tecnologia.

Gli sviluppi recenti: non solo ChatGPT

L’IA non è solo una fantasticheria da film di fantascienza; è già qui, tra noi. Molte delle tecnologie che utilizziamo quotidianamente sono alimentate da intelligenza artificiale. Ad esempio, quando chiediamo al nostro assistente vocale di darci le previsioni del tempo o quando riceviamo raccomandazioni personalizzate su piattaforme di streaming, stiamo sperimentando l’IA in azione. Inoltre, se pensiamo ai primi anni 2000, è lo stesso periodo in cui nascono i primi sistemi di traduzione automatica. L’IA è diventata di dominio pubblico grazie a ChatGPT, la chatbot di OpenAI lanciata sul mercato a fine 2022 che permette l’interazione tra uomo e macchina grazie a un linguaggio che simula quello umano. ChatGPT, infatti, si basa su tecnologie generative e di apprendimento automatico. Ciò significa che è un software in continua evoluzione in cui anche gli utenti possono apportare modifiche o contributi. Questa semplicità d’uso ha reso, di fatto, l’IA accessibile a tutti aprendo nuove possibilità di lavoro e, al tempo stesso, nuovi rischi correlati al suo uso, come per qualsiasi nuova tecnologia.

Unione europea: un regolamento sull’IA all’orizzonte

L’avvento dell’IA ha portato grossi cambiamenti nell’ambito lavorativo e nella creazione di nuove professioni. D’altro canto, la diffusione massiva di questa nuova tecnologia ha aperto un serio dibattito su temi legati a raccolta e trattamento dei dati, etica, bias di genere e categorizzazione dei soggetti. A tal proposito, l’Unione europea, in particolare il Parlamento e il Consiglio, sono giunti a un accordo a fine 2023 per l’emanazione di un regolamento Ue per la regolamentazione dell’IA.

L’accordo tra Parlamento e Consiglio prevede la definizione di due categorie di rischio, ovvero alto e limitato. Lo spirito alla base di questa categorizzazione è il voler far rientrare i sistemi di IA all’interno della direttiva sulla sicurezza dei prodotti. Nella bozza di accordo, si prevedono due livelli di rischio dell’IA: alto e limitato. Un sistema IA ad alto rischio è quel sistema che “influisce negativamente sulla sicurezza o sui diritti fondamentali”. A tal proposito, tali sistemi dovranno essere registrati all’interno dell’Ue per sottostare alla relativa legislazione e superare un processo di valutazione prima della loro immissione sul mercato. Anche l’IA generativa potrebbe costituire un alto rischio in quanto potrebbe creare contenuti deepfake che potrebbero minare o influenzare decisioni politiche influenzando negativamente sulla vita civile. D’altro canto, i sistemi che saranno ritenuti a rischio limitato dovranno rispettare “requisiti minimi di trasparenza” e informare l’utente della possibilità di continuare a usare o meno tale sistema di IA.

In sintesi, l’obiettivo del futuro regolamento è quello di garantire uno sviluppo sostenibile ed etico dell’intelligenza artificiale che si adatti al contesto democratico e liberale degli Stati membri. In caso di futura entrata in vigore di questo regolamento, l’Unione europea sarà la prima realtà mondiale a regolare l’uso dell’intelligenza artificiale.

Copyright: il caso New York Times

Oltre all’accordo in ambito Ue sulla regolamentazione dell’IA, il 2023 si è concluso con la causa intentata dal New York Times nei confronti di OpenAI, società sviluppatrice di ChatGPT, per violazione di copyright. La testata giornalistica statunitense contesta a OpenAI il fatto di aver utilizzato articoli giornalistici per l’addestramento dei suoi modelli generativi di intelligenza artificiale. Nello specifico, il New York Times lamenta lo sfruttamento abusivo dei contenuti protetti da copyright e la generazione di output erronei da parte di ChatGPT a partire dai contenuti prodotti dalla testata. Alla luce di ciò, il New York Times chiede ai giudici federali, in un atto di citazione di ben 69 pagine, un risarcimento danni a OpenAI e Microsoft, l’inibitoria al comportamento abusivo delle società, nonché la distruzione dei motori GPT. Sebbene la giustizia federale non si sia ancora espressa in merito, tale vicenda ha aperto il dibattito sullo sfruttamento di contenuti originali per l’addestramento dei motori, oltre ad aprire un serio dibattito su questioni etiche, democratiche e di libertà del giornalismo.

Conclusioni

L’avvento dell’IA sta avendo un impatto significativo sulle attività lavorative di ogni giorno. La sfida che ci attende è quella di trovare un giusto e sano equilibrio tra etica e sviluppo di questa materia. Nei prossimi mesi offriremo a soci e socie TradInFo nuove “pillole” di conoscenza e informazioni sull’IA.

E voi cosa ne pensate? Avete già inserito l’IA nei vostri flussi di lavoro? Fatecelo sapere nei commenti!

 

2 Commenti
  • Chiara Vecchi
    Pubblicato alle 17:13h, 06 Marzo Rispondi

    Ciao Matteo, che articolo interessante! Vorrei incorporare l’AI nel mio lavoro per trovare sinonimi o aiutarmi in alcuni processi creativi tramite prompt che tutelino la riservatezza del materiale dei clienti.
    Pochi giorni fa si è parlato molto di un evento ispirato alla Fabbrica di cioccolato di Roahl Dahl che, pubblicizzato con l’IA, ha riscosso un flop tale da uscire dai confini di Galsgow (https://www.bbc.com/news/uk-scotland-glasgow-west-68431728). Credo possa essere un buon esempio che queste tecnologie sono utili, ma vanno utilizzate responsabilmente.

  • Damaris Stroe
    Pubblicato alle 15:53h, 08 Marzo Rispondi

    Uno strumento potentissimo che cambierà il mondo. Grazie, Matteo!

Inserisci un commento