Les grands modèles de langage (LLM) peuvent être utilisés pour assister des pirates dans la création d’outils malveillants. Mais une étude universitaire américaine montre que GPT-4 est aussi capable de s’attaquer à des sites web vulnérables, sans assistance humaine. Des résultats qui devraient inciter les éditeurs de LLM à travailler sur cet enjeu majeur.
Information inédite, le modèle GPT-4 d’OpenAI pourrait potentiellement pirater 73 % des sites web selon les travaux de recherche d’experts de la programmation affiliés à l’université de l’Illinois Urbana-Champaign (UIUC) et publiés sur le site de publication scientifique Arxiv. Précision des auteurs, cette revue n’est pas relue par les pairs. Il n’empêche. Le fait que les LLM les plus emblématiques de l’IA générative soient en mesure d’interagir avec des outils en appelant des fonctions est préoccupant. Certaines LLM seraient capables d’effectuer des tâches aussi complexes que l’extraction de la structure d’une base de données et réaliser, entre autres, des injections SQL, et cela, sans retour d’information d’origine humaine…