Questo lancio avviene in un contesto di squilibrio nelle aziende di tutte le dimensioni. Da un lato, gli sviluppatori scrivono codice sempre più rapidamente grazie agli assistenti di codifica basati sull'intelligenza artificiale. Dall'altro, i team incaricati di verificare il corretto funzionamento di tale codice continuano a lavorare con metodi prevalentemente manuali. Oggi, quando un test fallisce, questi team impiegano in media quasi mezz'ora per analizzare le ragioni del fallimento, consultando diversi strumenti, registri tecnici e cronologie complesse. È proprio questo il problema che BrowserStack intende risolvere. Il suo nuovo agente di analisi dei test falliti agisce come un assistente autonomo in grado di esaminare automaticamente tutte le informazioni relative a un test fallito. Anziché chiedere ai team di raccogliere autonomamente gli elementi, l'agente analizza direttamente l'intero contesto: risultati dei test, eventi registrati, esecuzioni precedenti e problemi simili già riscontrati. In pochi istanti, identifica la probabile causa del fallimento.
L'IA è in grado di stabilire immediatamente se un problema deriva dal codice stesso, da un test configurato in modo errato o semplicemente da un ambiente difettoso. Non si limita a segnalare un problema, ma propone anche possibili soluzioni e i passi successivi da seguire. In alcuni casi, consente persino di creare un ticket di correzione con un solo clic negli strumenti già utilizzati dai team. Questo approccio è diverso dagli strumenti di IA generici, che spesso analizzano frammenti di codice isolati senza comprendere il contesto globale. Essendo direttamente integrato nella piattaforma BrowserStack, l'agente ha una visione completa del ciclo di test, il che gli consente di essere più preciso e molto più veloce. Secondo BrowserStack, l'analisi di un test fallito può essere eseguita fino al 95% più velocemente rispetto a un'indagine manuale.









