Perché l’AI potrebbe essere il tassello mancante nelle Internal Developer Platform
Alcuni pensano che l’AI possa essere il tassello mancante del puzzle nelle Internal Developer Platform (IDPs), mentre altri spalancano gli occhi in preda all’hype. Ci dirigiamo verso una svolta o ci stiamo preparando a un’altra cocente delusione?
Anche i sostenitori più entusiasti dell’intelligenza artificiale ne riconoscono i limiti in termini di accuratezza, etica e complessità. Tuttavia, nonostante tutti i suoi difetti, questo strumento potrebbe ancora rimodellare il modo in cui creiamo software. Potrebbe offrire qualcosa che accende la necessità delle IDP di evolversi.
Quindi, prima di etichettare l’intelligenza artificiale come un’altra moda passeggera, facciamo un passo indietro ed esaminiamo oggettivamente il suo potenziale. Nelle sezioni seguenti, analizzeremo le promesse, le insidie e i passaggi pratici per integrare l’intelligenza artificiale in una piattaforma di sviluppo. Quindi, vi inviteremo a partecipare alla discussione al Platmosphere 2025, dove potrete vedere come si sviluppa questo dibattito tra i veterani del settore.
Perché alcuni sopravvalutano l’AI
Le organizzazioni cominciano a interrogarsi sul reale valore degli strumenti di AI, poiché le primissime, forse esageratamente ottimistiche promesse non sono state rispettate. Quindi, è importante gestire le aspettative e ridimensionare il successo quando si parla di AI.
Le organizzazioni riportano numerosi campanelli d’allarme quando si prova ad implementare l’AI:
- L’accuratezza fallisce nei momenti topici: alcune allucinazioni (fatti inventati) possono portare a malfunzionamenti o a violazioni di conformità.
- Incertezza sugli strumenti normativi: le leggi emergenti sui dati e le richieste sulla sicurezza rendono l’implementazione dell’AI rischiosa.
- Task di dominio specifico: l’AI inciampa spesso quando si tratta di conoscenza specialistica, in particolare in settori regolamentati come la finanza o l’assistenza sanitaria.
- Spese generali (overhead) di manutenzione: aggiornare o mettere a punto i modelli richiede tempo e può far sforare il budget.
Tutte queste sfide contribuiscono a ciò che alcuni definiscono “AI hangover (sbornia da AI)”, ovvero, quando l’esaltazione svanisce a causa degli alti costi di integrazione e delle svolte impreviste. Detto ciò, la tecnologia è ancora in via di sviluppo, e una pianificazione attenta potrebbe aiutare ad evitare queste trappole.
Il vero problema con l’integrazione non è solo il plug-and-play
Implementare l’AI potrebbe sembrare semplice su carta, ma non è così facile come buttare giù alcune righe di codice e richiamare un’API. Un buon progetto AI include un’infrastruttura solida, pipeline di dati, monitoraggio di sistemi, e linee guida per gestire informazioni sensibili.
I Large Language Models (LLMs) richiedono enormi blocchi di dati, quindi sorgono immediatamente domande sull’origine di questi dati e sulla proprietà intellettuale. I dati sintetici possono rispondere a problemi di dati incompleti o distorti e possono bilanciare i dataset. I dataset che non possono essere utilizzati a causa di restrizioni sulla privacy possono essere effettivamente rimpiazzati dai dati sintetici.
Aggiungiamo questo alla frenesia di creare microservizi, garantire l’affidabilità e mantenere le prestazioni in una IDP.
Determinare quali attività traggono vantaggio dall’AI e quali no è certamente un’ulteriore sfida. Se un lavoro richiede una competenza di nicchia o un margine di errore pari a zero, un LLM potrebbe non essere la scelta migliore, poiché le allucinazioni in scenari critici per la conformità non sono propriamente auspicabili.
Infine, se il team si sente a disagio con i sistemi black-box, vale la pena esplorare modelli privati o self-hosted. L’approccio più diretto è eseguire tutto in un ambiente cloud pubblico, ma bisogna tenere presente che i propri dati vengono sostanzialmente ceduti e potrebbero finire su servizi di terze parti. Ecco perché la pianificazione dell’integrazione deve andare oltre i soli strumenti tecnici.
E per quanto riguarda la privacy, le proprietà intellettuali, e la fiducia?
Tutto questo parlare di big data pone un interrogativo su chi sia il proprietario delle informazioni date in pasto a un LLM e se tutto ciò sia sicuro. Esiste un rischio con la condivisione di proprietà intellettuali se un modello AI acquisisce del codice proprietario?
Alcune organizzazioni evitano strumenti specifici di AI a causa della loro natura “black-box”. Si preoccupano di dare dati confidenziali a servizi di terze parti o di violare la proprietà intellettuale.
Sorgono anche preoccupazioni relative alla fiducia e alla responsabilità nel caso in cui un chatbot AI raccomandi un’implementazione non sicura o buggata. I team di gestione del rischio vogliono trasparenza nelle decisioni, ma la logica che risiede in un LLM non è così immediata. Le organizzazioni hanno bisogno di confini ben definiti e strutture presidiate, non di implementazioni cieche e dogmatiche.
La resistenza all’AI origina anche dai lavoratori che temono di essere rimpiazzati o si preoccupano di una perdita del controllo di qualità. Ecco perché l’AI non riguarda solo la tecnologia. Quei lavoratori hanno bisogno di un cambio culturale e di linee guida ben comunicate: i leader IT devono chiarire che l’AI è un aiuto, non uno strumento di rimpiazzo lavorativo.
In che modo l’AI può sobbarcarsi di task tediose senza far stancare gli sviluppatori
Una tipica giornata di lavoro per un team di sviluppo include il setacciare i registri, scrivere codice boilerplate, risolvere i bug, e lanciare check di sicurezza. Sono task dure da gestire e possono impantanare il team. L’AI ha il potenziale di alleviare un po’ di questa monotonia.
Siamo già di fronte a chatbot che passano in rassegna i Git diff, generano automaticamente documentazione e offrono suggerimenti di sicurezza. E’ in linea con l’idea di una IDP che prende il fardello di task ripetitive dagli sviluppatori. L’ingegneria dell’integrazione potenziata dall’intelligenza artificiale può quindi accelerare e semplificare il processo di sviluppo dell’integrazione utilizzando funzionalità quali l’integrazione basata su chat, l’ottimizzazione del flusso di lavoro, la trasformazione automatizzata dei dati e i test.
Ad ogni modo, l’AI non può gestire la compliance o la privacy in autonomia, e l’ultima parola sta sempre al vaglio di persone esperte. Infatti, le aziende devono capire come immagazzinare in modo sicuro i dati e come i modelli LLM sfruttano questi dati pur rimanendo pienamente conformi alle normative.
In che modo l’AI trasformerà le Internal Developer Platform
Nonostante le sfide, ci sono tanti motivi per cui l’AI può rappresentare un punto di svolta per le piattaforme di sviluppo:
- Previsione delle risorse e ottimizzazione dei costi: l’intelligenza artificiale può analizzare le tendenze di utilizzo, i registri e i dati di telemetria per anticipare picchi o cali della domanda. Una IDP può scalare automaticamente le risorse, evitando confusioni dell’ultimo minuto e identificando perdite di budget nei sistemi sottoutilizzati. Le funzionalità di gestione dell’infrastruttura potenziate dall’intelligenza artificiale possono essere integrate nelle developer platform, consentendo agli sviluppatori e agli ingegneri dell’affidabilità del sito di gestire le applicazioni in modo affidabile e poco dispendioso.
- Monitoraggio della qualità del codice e della sicurezza: l’intelligenza artificiale analizza i registri di controllo delle versioni, i commit e le azioni degli utenti per rilevare problemi impercettibili o pattern sospetti. Segnala potenziali bug e violazioni della sicurezza in anticipo, consentendo agli sviluppatori di risolverli prima che blocchino la piattaforma.
Un portale self-service che guida gli sviluppatori attraverso insidiosi passaggi di integrazione adattato al loro livello di competenza è più realistico di quanto si possa pensare. Questo livello predittivo potrebbe essere il tassello che rende la IDP molto più di una ben incensata console gestionale.
Il ruolo dell’AI nelle Developer Platform di domani
Prima o poi, l’AI ridurrà significativamente – o eliminerà del tutto – le sfide della platform engineering. Oppure cambierà totalmente lo sviluppo software. Ad oggi, può già farsi carico di tutte quelle task noiose e ripetitive che non piacciono ai team, e può poi avvertire di problemi di sistema prima che diventino critici.
Ad esempio, pensate a uno scenario in cui il vostro Data Protection Officer può interagire direttamente con la piattaforma tramite un’interfaccia conversazionale, chiedendo informazioni sulla conformità a normative specifiche. L’IA fornisce risposte accurate, riducendo il tempo degli sviluppatori su domande non tecniche e consentendogli di concentrarsi sui loro compiti principali.
Combinando queste vittorie con una governance attenta, è possibile avere una developer platform di supporto piuttosto che importuna.
A lungo termine, alcune organizzazioni stanno osservando un passaggio da flussi di lavoro basati su codice puro a collaborazioni guidate dall’IA. Le IDP potrebbero evolversi in sistemi basati sulla conoscenza in cui l’AI anticipa le esigenze degli sviluppatori, dalle patch di sicurezza all’allocazione delle risorse. Questa visione è ambiziosa ma basata su esempi pratici in cui l’AI facilita la produttività reale piuttosto che fornire solo demo fantasiose.
I risultati migliori si verificano quando l’ambizione è bilanciata con una visione realistica dei difetti dell’AI. Bisogna riconoscere le allucinazioni, stabilire delle barriere e rimanere realisti sui rendimenti previsti. L’AI dovrebbe offrire dati e modelli rapidi, mentre gli esperti umani si occupano della gestione di decisioni delicate.
Unitevi alla conversazione durante il Platmosphere 2025
L’AI ha evidenti debolezze, ma può colmare lacune essenziali in una developer platform. Procedere con cautela non implica ignorare l’AI. Significa porre domande difficili sulla sua integrazione e gestione, quindi procedere a passi misurati.
Se volete saperne di più sul futuro delle IDP e su come l’AI potrebbe esserne il tassello mancante, venite al Platmosphere 2025. Incontrerete altri appassionati di platform engineering alle prese con sfide realistiche di intelligenza artificiale nella vita di tutti i giorni.
Fino ad allora, rimanete sintonizzati e iscrivetevi alla newsletter di Mia-Platform. Troverete risorse, casi di studio e aggiornamenti sulla platform engineering che potrebbero favorire le innovazioni che stavate cercando.

