Sfruttare i modelli di intelligenza artificiale per migliorare i risultati degli IDP
Nel nostro precedente post abbiamo discusso di come siamo ancora agli inizi della comprensione dell'impatto potenziale dei nuovi modelli di IA sull'automazione dei processi e di come, data questa incertezza, disporre di una piattaforma che permetta di sfruttare diversi modelli per diversi casi d'uso offra un vantaggio a prova di futuro. In questo blog post ci addentreremo un po' di più nei vari modelli di IA e nel modo in cui le diverse applicazioni possono ottimizzare i risultati dell'elaborazione intelligente dei documenti.
Tipi di modelli di IA e opzioni di implementazione
Modelli linguistici di grandi dimensioni (LLM) e AI generativa
I modelli linguistici di grandi dimensioni sono una classe di modelli di elaborazione del linguaggio naturale (NLP) che vengono addestrati su enormi set di dati. Grazie alla sua interfaccia quotidiana e facile da usare, il modello più conosciuto oggi è probabilmente il GPT-3 o GPT-4 di OpenAI, attraverso il suo chatbot ChatGPT. L'ultima versione del motore di ricerca Bing utilizza un LLM di nuova generazione di OpenAI, personalizzato per la ricerca. Il BARD di Google si basa sul Pathways Language Model (PaLM).
L'IA generativa si riferisce alla funzionalità di creazione di contenuti di questi sistemi e riguarda non solo la chat ma anche la creazione di immagini e video (ad esempio Dall-E, Midjourney).
Perché questa distinzione è importante per l'automazione dei processi basati sui documenti? Disaccoppiare gli LLM dalla funzionalità di creazione di contenuti del sistema significa che una soluzione può trarre vantaggio dalla loro comprensione, senza doversi preoccupare di alcuni degli aspetti negativi, come il fatto che i servizi di IA generativa sono inclini alle allucinazioni. Ciò significa anche che i risultati possono essere combinati da più modelli diversi o combinati con l'acquisizione tradizionale per evitare queste falsità.
Modelli di AI di nicchia
I modelli di AI di nicchia sono progettati per compiti o domini specifici e specializzati e sono più finemente sintonizzati per eccellere in una particolare area. Vengono pre-addestrati su un set di dati ampio e diversificato e successivamente messi a punto su un set di dati più specifico relativo a un particolare dominio o compito. Come gli LLM, non sono limitati a un'unica organizzazione e possono essere collegati ai processi aziendali per attività più specializzate.
Modelli di intelligenza artificiale personalizzati
A differenza degli LLM, questo approccio non parte da un set di dati pre-addestrati. I modelli personalizzati sono modelli di apprendimento automatico che vengono adattati e addestrati specificamente per un particolare compito o dominio.
Con un modello personalizzato, il primo passo consiste nell'etichettare un set di documenti con i valori da estrarre e creare un modello addestrato sulla base di quel set di dati.
Questo approccio consente di ottenere risultati più mirati e precisi. I modelli possono essere creati con set di campioni relativamente piccoli e perfezionati per affrontare problemi specifici. Questo metodo richiede alcune conoscenze specialistiche, funziona sia per le immagini che per il testo e può essere utilizzato per scenari specifici in cui sono presenti immagini di qualità scarsa e variabile (ad esempio quelle acquisite da un dispositivo mobile).
Servizi hyperscaler
I grandi hyperscaler (Microsoft, Amazon, Google) continuano ad aggiungere alle loro piattaforme cloud servizi relativi a documenti e dati. In questo caso, i modelli vengono continuamente aggiornati e perfezionati, per cui è facile approfittare dei cicli di miglioramento continuo (o attenersi a una versione del modello già collaudata e affidabile).
Esistono opzioni per modelli pre-costruiti e personalizzati, che consentono di scegliere l'approccio migliore per ciò che si sta cercando di ottenere. Alcuni servizi sono disponibili solo per l'esecuzione nel cloud, mentre altri possono essere scaricati ed eseguiti localmente come container, il che può comportare limitazioni per alcune organizzazioni. I prezzi possono essere piuttosto dinamici, in quanto i fornitori si riservano il diritto di modificarli in qualsiasi momento.
Dove ognuno di questi è più appropriato:
La scelta del modello da utilizzare dipende da vari fattori, tra cui la natura dei dati, la disponibilità di risorse, i livelli di accuratezza desiderati, la complessità e i requisiti di elaborazione dei dati.
- Gli LLM sono adatti per processi di tipo analitico (ad esempio, l'analisi dei contratti), l'analisi e la classificazione del sentiment, la sintesi dei contenuti, la ricerca intelligente e il tagging dei documenti. Sono facili da implementare e richiedono una messa a punto minima, ma potrebbero non essere accurati o specifici per il dominio come i modelli personalizzati.
- I modelli personalizzati sono utili quando la qualità dei dati e la conformità sono una delle principali preoccupazioni, oppure quando si tratta di tipi di documenti specifici o di classificazione di immagini, in quanto offrono un maggiore controllo sul processo di formazione, consentendo alle organizzazioni di adattarlo alle loro esigenze specifiche.
- I servizi Hyperscaler sono un'ottima alternativa all'OCR per i documenti difficili o rumorosi e per quelli contenenti elementi scritti a mano e consentono un'implementazione rapida in quanto sono pronti all'uso con una configurazione minima.
Orchestrazione dell'IA per la conformità alle normative
Con la crescente implementazione di norme di governance relative all'IA, soprattutto in relazione al modo in cui le aziende si relazionano con le persone, riteniamo che la richiesta di"IA spiegabile" si intensificherà ulteriormente, il che significa che sarà necessario fare chiarezza sulle decisioni o sulle previsioni fatte. Questa tendenza porterà probabilmente a una diminuzione dell'uso di singoli modelli personalizzati di grandi dimensioni che forniscono solo risposte senza sufficienti spiegazioni sulla loro derivazione. L'esperienza nel nostro campo ci dice invece che si preferirà combinare più modelli di piccole dimensioni, dove la navigazione intelligente tra questi modelli sarà controllata e gestita da una piattaforma di orchestrazione automatizzata.
Questo stesso approccio può svolgere un ruolo fondamentale nel ridurre gli errori. In ultima analisi, è molto più costoso correggere un falso positivo a valle che correggere un errore valido. Questo approccio consente alle organizzazioni di combinare e convalidare vari approcci tra loro e con fonti di dati note. Sfruttando questa metodologia, le organizzazioni possono garantire una maggiore accuratezza e affidabilità delle loro operazioni.
----------------------------
Continua a leggere..... ulteriori approfondimenti sull'intelligenza artificiale per il processo decisionale umano.