Ce lancement intervient dans un contexte de déséquilibre dans les entreprises de toutes tailles. D’un côté, les développeurs écrivent du code de plus en plus rapidement grâce aux assistants de codage basés sur l’IA. De l’autre, les équipes chargées de vérifier que ce code fonctionne correctement continuent de travailler avec des méthodes largement manuelles. Aujourd’hui, lorsqu’un test échoue, ces équipes passent en moyenne près d’une demi-heure à analyser les raisons de l’échec, en consultant différents outils, des journaux techniques et des historiques complexes. C’est précisément ce problème que BrowserStack entend résoudre. Son nouvel agent d’analyse des échecs de tests agit comme un assistant autonome capable d’examiner automatiquement toutes les informations liées à un test qui échoue. Plutôt que de demander aux équipes de rassembler elles-mêmes les éléments, l’agent analyse directement l’ensemble du contexte : résultats de tests, événements enregistrés, exécutions précédentes et problèmes similaires déjà rencontrés. En quelques instants, il identifie la cause probable de l’échec.
L’IA est capable de dire immédiatement si un problème vient du code lui-même, d’un test mal configuré ou simplement d’un environnement défaillant. Il ne se contente pas de signaler un problème, mais propose aussi des pistes de correction et les prochaines étapes à suivre. Dans certains cas, il permet même de créer un ticket de correction en un clic dans les outils déjà utilisés par les équipes. Cette approche est différente des outils d’IA génériques, qui analysent souvent des morceaux de code isolés sans comprendre le contexte global. En étant directement intégré à la plateforme de BrowserStack, l’agent dispose d’une vision complète du cycle de test, ce qui lui permet d’être plus précis et beaucoup plus rapide. Selon BrowserStack, l’analyse d’un échec de test peut ainsi être réalisée jusqu’à 95 % plus vite qu’avec une investigation manuelle.









