Di Bill Conner, Presidente e CEO di Jitterbit
Le tecnologie di intelligenza artificiale esistenti ed emergenti hanno continuato a essere un obiettivo primario per noi per tutto il 2025, portando al lancio di diversi nuovi assistenti di intelligenza artificiale e di una suite di nuovi potenti agenti di intelligenza artificiale per migliorare l'automazione, l'integrazione e l'orchestrazione.
Anche quest'anno, continuiamo a impegnarci per aiutare i clienti a sfruttare al meglio gli ultimi sviluppi dell'intelligenza artificiale e a superare le difficoltà emergenti. Ecco le dieci principali tendenze e cambiamenti che prevediamo potrebbero verificarsi nel 2026:
1. L'integrazione diventa la base dello stack di intelligenza artificiale aziendale
Con la proliferazione degli agenti di intelligenza artificiale, il principale ostacolo all'adozione aziendale non sarà più la qualità del modello, ma la connettività. I sistemi di intelligenza artificiale creano valore solo quando possono leggere, scrivere, aggiornare e attivare azioni nelle applicazioni aziendali. In altre parole, l'intelligenza artificiale senza integrazione produce insight; l'intelligenza artificiale con integrazione produce risultati.
Di conseguenza, l'integrazione diventerà il fondamento dell'era dell'intelligenza artificiale, proprio come lo era l'infrastruttura cloud negli anni 2010.
Le aziende richiederanno piattaforme che forniscano:
- Accesso sicuro ai sistemi tramite API, eventi e pipeline di dati
- Autenticazione e autorizzazione coerenti tra gli agenti
- Governance e osservabilità complete per le azioni guidate dall'intelligenza artificiale
- La capacità di orchestrare processi multifase end-to-end
Nell'impresa guidata dall'intelligenza artificiale, il middleware non è più solo un semplice impianto idraulico: è diventato il fulcro del modello operativo.
2. L'NLP diventa l'interfaccia principale per la creazione di semplici agenti di intelligenza artificiale
Nel 2026, l'NLP (Programmazione in Linguaggio Naturale) affiancherà i tradizionali strumenti low-code per l'automazione quotidiana e la creazione di agenti. Invece di trascinare caselle o scrivere logiche in stile script, gli utenti aziendali descriveranno semplicemente i risultati: "Quando arriva un nuovo lead, qualificalo, arricchiscilo e avvisa il rappresentante commerciale".
Gli agenti di intelligenza artificiale interpreteranno le intenzioni, assembleranno i flussi di lavoro e si adatteranno automaticamente all'evoluzione dei sistemi. Il low-code continuerà a guidare un'orchestrazione complessa, ma l'elaborazione del linguaggio naturale diventerà l'interfaccia predefinita per le attività di routine.
È lo stesso cambiamento che abbiamo visto quando la ricerca ha superato le directory e il tocco ha sostituito i pulsanti fisici: l'NLP sta diventando il nuovo livello di astrazione per l'automazione.
3. Il valore di mercato dei semplici "Task Bot" crolla quasi a zero
La semplice automazione, come lo spostamento di file, l'invio di notifiche o la sincronizzazione di righe tra app, non giustificherà più la propria categoria di mercato. I semplici bot svaniranno silenziosamente sullo sfondo.
Tutte le principali piattaforme, da Microsoft e Google a Salesforce, ServiceNow e Slack, integreranno queste attività basate sull'intelligenza artificiale direttamente nei loro prodotti principali. Di conseguenza, i "microbot" diventeranno una commodity completa e i fornitori che si basano sull'automazione di base del flusso di lavoro perderanno potere di determinazione dei prezzi.
I veri vincitori saranno le piattaforme che offrono un'orchestrazione avanzata anziché bot mono-attività, garantiscono governance e osservabilità di livello aziendale e si integrano profondamente nei sistemi aziendali anziché limitarsi a incollare insieme le app.
Questo cambiamento rispecchia l'evoluzione dell'email hosting da servizio a pagamento a funzionalità attesa. Gartner lo conferma con la sua previsione che entro il 2026, l'80% della semplice automazione del flusso di lavoro sarà costituito da funzionalità in bundle, non da prodotti.
4. La competenza hardware riemerge come vantaggio strategico
Stiamo entrando in una nuova era in cui l'hardware torna a essere importante. Negli anni '90, il vantaggio competitivo derivava dalle innovazioni in ambito CPU, storage e networking. Negli anni 2000 e 2010, il baricentro si è spostato su software come SaaS, cloud, API e dispositivi mobili. Ora l'intelligenza artificiale sta riportando il settore verso il predominio dell'hardware.
I paesi stanno correndo per assicurarsi le GPU come se fossero asset strategici. Le aziende hanno bisogno di chip specializzati per l'inferenza e la messa a punto. Acceleratori personalizzati come NPU, TPU e ASIC stanno diventando veri e propri elementi di differenziazione.
Anche la resilienza della supply chain è ormai una preoccupazione a livello di consiglio di amministrazione. I governi stanno investendo miliardi in questo cambiamento: 52 miliardi di dollari attraverso il CHIPS Act statunitense, 47 miliardi di dollari attraverso il Chips Act europeo e oltre 140 miliardi di dollari in sussidi ai semiconduttori in Cina. L'addestramento e l'esecuzione di modelli di intelligenza artificiale su larga scala consumano energia e raffreddamento in modo straordinario, e l'espansione dei data center sta incontrando limiti geografici, normativi e di disponibilità energetica.
L'elettricità sta diventando un fattore determinante per la capacità dell'IA e le regioni con surplus di energia rinnovabile stanno emergendo come hub di IA. Gli operatori di data center ora competono per la limitata capacità di trasformatori e reti, e le aziende stanno iniziando a ottimizzare l'utilizzo dell'IA in base a una pianificazione attenta ai costi, non solo alle prestazioni.
Per tutto il 2026, i vincoli sui semiconduttori potrebbero continuare a limitare la disponibilità e il deprezzamento dell'hardware di intelligenza artificiale, ma il vero divario tra leader e ritardatari sarà definito dalla connettività piuttosto che dalla potenza di calcolo pura. Le organizzazioni in grado di trasformare il potenziale dell'intelligenza artificiale in valore aziendale tangibile attraverso un'integrazione fluida, API e automazione supereranno quelle che si affidano esclusivamente alla capacità di elaborazione.
Con il probabile persistere di colli di bottiglia nella produzione, sarà essenziale dare priorità a soluzioni pratiche e scalabili rispetto alle esagerazioni. Anche i modelli di intelligenza artificiale più avanzati saranno vincolati dai sistemi che li alimentano, rendendo architettura, connettività e flussi di lavoro integrati i fattori critici che determineranno quali aziende riusciranno a ottenere una trasformazione duratura e un vantaggio competitivo.
I carichi di lavoro dell'intelligenza artificiale crescono di 10 volte ogni 18 mesi, superando di gran lunga la Legge di Moore, e possedere o accedere alla giusta potenza di calcolo, al momento giusto, sarà fondamentale quanto possedere la proprietà intellettuale. La capacità hardware diventa il nuovo vincolo del cloud e ogni grande azienda avrà bisogno della capacità di comprendere, acquisire e ottimizzare l'hardware per l'intelligenza artificiale.
5. I data center e l'elettricità diventano i veri colli di bottiglia
Con l'accelerazione dell'adozione dell'intelligenza artificiale, il vincolo si sposta dagli algoritmi all'economia delle infrastrutture. L'addestramento e l'esecuzione di modelli di intelligenza artificiale su larga scala richiedono un consumo energetico e di raffreddamento straordinario, e l'espansione dei data center sta incontrando limiti geografici, normativi e di disponibilità energetica.
Entro il 2028, l'elettricità diventerà un fattore determinante per la capacità dell'IA. Man mano che le regioni con surplus di energia rinnovabile diventeranno hub dell'IA, gli operatori di data center si contenderanno la limitata capacità di trasformatori e reti, e le aziende inizieranno a ottimizzare l'utilizzo dell'IA in base a una pianificazione attenta ai costi, non solo alle prestazioni.
La prossima ondata di innovazione riguarderà tanto la gestione energetica e le infrastrutture sostenibili quanto l'architettura dei modelli. L'addestramento di un singolo modello in scala GPT-4 ha consumato circa 5-7 gigawattora, sufficienti ad alimentare 1,000 centrali elettriche statunitensi. homeper un anno.
6. Sicurezza e ROI diventano priorità assolute per l'intelligenza artificiale aziendale
Dopo l'iniziale entusiasmo per l'IA, le aziende passeranno dalla sperimentazione all'operatività e il dibattito cambierà. Le preoccupazioni relative alla sicurezza saranno al centro dell'attenzione: rischi di fuga di dati da parte degli LLM, utilizzo di IA ombra da parte dei dipendenti, esposizione legale a rischi derivanti da una provenienza poco chiara dei modelli e richieste di trasparenza da parte dei fornitori in merito ai dati di training e alla discendenza dei modelli. I CISO insisteranno su solidi framework di governance dell'IA prima di consentirne l'adozione su larga scala.
Il ROI diventerà il fattore decisivo. Le aziende non daranno più il via libera ai progetti di intelligenza artificiale semplicemente perché "si sentono innovativi". Il successo richiederà guadagni di produttività misurabili, risparmi operativi o risultati di fatturato chiari.
L'intelligenza artificiale avrà successo solo se associata a tempi di ciclo dei processi ridotti, minori costi di manodopera per attività ripetitive, maggiore soddisfazione del cliente e un tangibile aumento dei ricavi. Di conseguenza, l'intelligenza artificiale nel suo complesso passerà finalmente dalle "demo interessanti" alla fornitura di valore aziendale quantificabile.
7. Il linguaggio naturale diventa la prossima grande interfaccia utente
Oltre alla programmazione di agenti, il linguaggio naturale (NL) sta diventando il livello di interfaccia universale per tutte le applicazioni. Se l'ultimo decennio è stato incentrato sul mobile e sulle API, il prossimo decennio sarà incentrato sul NL. Dipendenti e cittadini interagiranno con i sistemi in modo conversazionale.
Potrebbero chiedere a una piattaforma di creare dashboard che mostrino il tasso di abbandono mensile per regione, di elaborare bozze di emendamenti contrattuali a partire dai modelli dell'anno precedente o di creare flussi di lavoro di approvazione per le richieste di nuovi fornitori. Questo cambiamento di interfaccia democratizza la creazione di soluzioni.
Chi non ha mai programmato o utilizzato strumenti low-code sarà improvvisamente in grado di creare automazioni, app e analisi significative semplicemente descrivendole. Le organizzazioni che accoglieranno questa democratizzazione assisteranno a un'ondata di innovazione dal basso.
8. La governance dell'IA diventa obbligatoria per l'implementazione aziendale
Con la maturazione dei quadri normativi e l'accelerazione dell'adozione dell'IA, le aziende non considereranno più la governance come un optional. Le organizzazioni formalizzeranno policy e sistemi per garantire che l'IA venga implementata in modo sicuro, etico e conforme alle normative, e questo cambiamento sarà guidato dalle crescenti preoccupazioni in materia di privacy dei dati, trasparenza dei modelli, responsabilità decisionale ed esposizione alle normative.
I quadri di governance:
- monitorare e verificare le azioni dell'IA nei sistemi
- controllare l'accesso ai dati sensibili e ai prompt
- traccia la discendenza del modello, le fonti di addestramento e la cronologia delle versioni
- garantire la conformità alle normative globali e specifiche del settore
- stabilire una supervisione per i casi d'uso ad alto rischio o ad alto impatto
La governance dell'IA diventa un prerequisito per l'estensione dell'IA all'intera azienda, non solo per ridurre i rischi, ma anche per costruire la fiducia organizzativa e favorire una più ampia adozione.
9. L'interazione umana diventa il modello predefinito per i flussi di lavoro di intelligenza artificiale aziendale
Anche con l'aumento delle capacità dei sistemi di intelligenza artificiale, le aziende adotteranno flussi di lavoro ibridi in cui l'uomo rimarrà al centro della supervisione e del processo decisionale. I processi HITL (Human-in-the-Loop) diventeranno standard per la revisione degli output critici, la garanzia della conformità, la convalida della correttezza e il mantenimento della fiducia organizzativa.
HITL sarà integrato in una varietà di flussi di lavoro:
- comunicazioni con clienti e dipendenti
- appalti, approvazioni legali e finanziarie
- generazione di documenti
- operazioni contrattuali
- processo decisionale complesso con conseguenze normative
- Agenti di intelligenza artificiale che eseguono azioni automatizzate nei sistemi principali
Questo approccio consente alle aziende di implementare l'intelligenza artificiale in modo più rapido e sicuro, garantendo che essa migliori le competenze umane anziché sostituirle. Inoltre, garantisce efficienza senza sacrificare fiducia, controllo o responsabilità.
10. I modelli di linguaggio di piccole dimensioni diventano essenziali per l'intelligenza artificiale aziendale
Man mano che le aziende ricercano efficienza, privacy e capacità specializzate, gli SLM (Small Language Model) acquisiranno sempre più importanza. Questi modelli compatti saranno ottimizzati per attività, domini o settori specifici, offrendo inferenza più rapida, costi inferiori e maggiore controllabilità rispetto alle loro controparti di grandi dimensioni.
Gli SLM saranno particolarmente preziosi per
- Applicazioni su dispositivo e edge
- Settori altamente regolamentati che richiedono l'elaborazione locale
- Flussi di lavoro che richiedono prestazioni prevedibili e allucinazioni minime
- Competenza specialistica affinata in settori quali servizi legali, medici o finanziari
- Organizzazioni con budget di elaborazione limitati
Invece di affidarsi a un unico modello gigantesco per gestire tutto, le aziende adotteranno portafogli modello: una combinazione di LLM generici e SLM altamente ottimizzati che offrono valore mirato con costi e rischi inferiori. Questo rappresenta un netto passaggio dal "più grande è meglio" all'"intelligenza delle dimensioni giuste per il compito".