
Zack Kass
Global AI Advisor and Former Head of Go-To-Market, OpenAI

L’IA bouleverse le développement logiciel en transformant le codage, le déploiement et la sécurisation des applications. Inscrivez-vous au tout premier sommet communautaire mondial sur la sécurité de l’IA pour découvrir les stratégies permettant d'innover avec l’IA sans risquer votre sécurité.
Rejoignez-nous pour l’édition 2025 de la DevSecCon pour mettre à l'honneur avec le reste du monde les innovations en matière de sécurité de l’IA. Au programme, des keynotes passionnantes, des démonstrations pratiques et des résultats de recherche de pointe. Vous jonglez entre les serveurs MCP, des agents imprévisibles déployés en production sans autorisation et la multiplication des vibe-coders ? Les implications de toutes ces nouveautés sur la sécurité vous inquiètent ? Cette conférence est faite pour vous !
Des experts de l’IA et de la sécurité venus du monde entier. Consultez la liste complète des intervenants ci-dessous.

Global AI Advisor and Former Head of Go-To-Market, OpenAI

Developers Education, WorkOS

Principal Developer Advocate, Qodo

Founder and CEO, Tessl
Avec nous, pas de conférence barbante. Préparez-vous à des keynotes passionnantes, des sessions pratiques qui vous parleront vraiment et beaucoup d’activités amusantes : CONCERTS LIVE, DJ, défis de développement et jeux, le tout dans une ambiance électrisante. Découvrez la liste complète des sessions et les détails du programme ci-dessous.
Rejoignez-nous sur la scène principale pour assister aux keynotes passionnantes des leaders de l’IA et de la cybersécurité. Au programme, décryptage des tendances de demain, points de vue des leaders du secteur et aperçu de l’avenir de la sécurisation de l’IA.
Apportez votre ordinateur pour participer à nos démonstrations interactives « Développer et sécuriser avec l’IA ». Vous en ressortirez avec des compétences applicables immédiatement.
Assistez à des échanges pointus autour des défis de sécurité en perpétuelle évolution associés à l’IA. Découvrez comment protéger les applications basées sur l’IA, gagner de la visibilité sur les modèles et sécuriser les agents tout au long du cycle du développement logiciel.
Découvrez les nouveautés de Snyk, avec notamment des démonstrations de produits en direct, de grandes annonces et des témoignages de clients.
Voici le planning complet de l'événement (heure de l’Est), avec notamment les conférences incontournables sur la scène principale et en plus petit comité.
Peter McKay
PDG de Snyk
Avec l’IA, le métier de développeur est en plein bouleversement. Dans sa keynote d’ouverture, Peter McKay, le PDG de Snyk, nous expliquera en quoi l’IA transforme la conception, le codage et la maintenance des logiciels, et dévoilera les opportunités incroyables de cette technologie, sans passer sous silence les risques clés auxquels les équipes devront faire face.
Guy Podjarny
Fondateur et PDG - Tessl
Danny Allan
Directeur technique - Snyk
Guy Podjarny et Danny Allan se penchent sur l’avenir du développement logiciel. Ensemble, ils révéleront comment le secteur passe d’une approche centrée sur le code à une approche centrée sur les spécifications, et analyseront le nouvel équilibre en train de se mettre en place entre l’expérience agent et l’expérience développeur, mais aussi ce qu’il signifie pour les développeurs, l’innovation et la sécurité.
Zach Proser
Formation des développeurs - WorkOS
Le développeur de demain ne sera pas vissé à son bureau. Avec les outils intégrant nativement l’IA, le développement logiciel peut s’absoudre des limites du temps et de l’espace.
Dans cette keynote, Zack Proser nous donne un aperçu de cette évolution en nous présentant son propre quotidien. Ses matins et après-midis commencent sur son MacBook Pro : il utilise Wispr Flow pour convertir sa voix en code à un rythme de 179 mots par minute avec l’assistance d’agents Cursor.
Mais ses avancées les plus incroyables interviennent autour de midi, pendant qu'il se promène au cœur de la forêt. À l’aide du mode vocal avancé d’OpenAI, Zack se sert de son téléphone pour travailler dans la pure tradition de l’école péripatéticienne. Il réfléchit à voix haute à l’architecture de sa solution et clarifie ses fonctionnalités, avec une créativité décuplée par l’oxygène et les endorphines. Un agent intelligent capture ce contexte et le réutilise.
Ainsi, ses périodes de développement les plus productives se passent loin du bureau, sans pour autant dégrader la sécurité et la fiabilité de son code. Les sandbox des agents et les analyses CI/CD limitent le rayon d’impact des vulnérabilités, les requêtes d’extraction sont validées automatiquement, et les appels mobiles sont authentifiés par le biais d’une identité de confiance. La situation personnelle du développeur, remontée par un appareil comme une bague Oura, par exemple, peut aussi guider les systèmes d’IA à condition que les flux de données soient protégés par de solides garde-fous.
Cette discussion mêle exemples en direct et vidéos dans les bois pour montrer un aperçu du développement sans frontières augmenté par l’IA et analyser l’équilibre à trouver entre liberté et sécurité dans nos workflows.
Manoj Nair
Responsable de l'innovation - Snyk
Danny Allan
Directeur technique - Snyk
Danny Allan et Manoj Nair, respectivement directeur technique et responsable de l'innovation chez Snyk, nous expliqueront comment Snyk contribue à la sécurisation du développement au rythme de l’IA, ainsi qu’à la simplification de la gouvernance de l’AppSec.
Tout au long de l’histoire, nous avons adopté l’innovation lorsqu’elle rendait notre vie réellement meilleure. C’est ainsi que le feu, l’électricité, les antibiotiques et Internet ont rejoint notre quotidien. Mais les choses ont changé. Avec la course à l’IA, l'obstacle n’est plus tant ce que la technologie peut apporter, mais ce que la société est prête à accepter. Dans cette keynote volontairement provocante, Zack Kass se penche sur l’écart croissant entre les possibilités offertes par la technologie et la capacité de la société à les accepter. Il s’appuie sur son expérience aux avant-postes de l’évolution de l’IA pour analyser pourquoi le progrès sera rythmé par des résistances culturelles, éthiques et institutionnelles plutôt que par des limitations techniques. Il vous donnera les clés pour gérer les résistances, repenser l’innovation et compter parmi les pionniers d’un des moments charnières de l’humanité.
W. Ian Douglas
Responsable principal des relations développeurs - Block
Comment mettre sa communauté à contribution sans risquer de se retrouver avec des lignes malveillantes dans sa base de code ? Notre solution, faire créer par notre système d’IA son propre outil d’analyse de la sécurité pour un projet communautaire de « recettes d’automatisation ». Nous avons élaboré un pipeline de sécurité en conteneur 100 % automatisé qui soumet les requêtes d’extraction GitHub à une analyse IA autonome et des algorithmes de détection des menaces dans un environnement isolé. Découvrez comment créer votre propre plan de déploiement d'un système de sécurité automatisé et basé sur l’IA dans vos pipelines CI/CD. Notre système manuel de revue, qui ralentissait nos livraisons, est devenu une véritable machine de fiabilisation qui analyse les soumissions en seulement quelques minutes contre plusieurs jours auparavant. N'attendez plus pour mettre vous aussi à profit cette stratégie !
Harshad Kadam
Responsable de la sécurité de l'infrastructure - Indeed Inc
Cette session se destine aux responsables de la protection, aux ingénieurs de détection et aux membres curieux des red teams qui souhaitent en savoir plus sur l’alliance entre modèle zero-trust et ingénierie de tromperie à l’ère de l’orchestration de l’IA. Nous y détaillerons comment nous avons créé un « piège à menaces MCP », un pot de miel qui : simule des outils internes sensibles basés sur le protocole MCP avec des délais réalistes, une gestion sécurisée des erreurs et des flux SSE qui imitent des API d’entreprise, qui déclenche silencieusement des Canarytokens avancés pour capturer des métadonnées enrichies, et qui s’exécute entièrement sur l’infrastructure edge mondiale de Cloudflare via Cloudflare Workers sans EC2, correctifs ou infrastructure. Notre système est ainsi discret et extensible à la demande, et permet de transformer des analyses aléatoires en informations exploitables qui éclairent les politiques zero-trust et fournissent à votre équipe chargée des incidents des alertes contextualisées.
Bob Remeika
PDG - Ragie.ai
Le protocole MCP (Model Context Protocol) cherche à normaliser les interactions des LLM avec des outils externes, mais la fluidité promise n’est pas encore au rendez-vous. Avec de simples descriptions génériques des outils, les modèles sont contraints de formuler des hypothèses, et leurs utilisateurs doivent donc piloter le routage ou déployer des règles fragiles dans les clients MCP comme Claude Desktop, Cursor ou l’implémentation d’OpenAI. Chez Ragie, nous avons voulu résoudre ce problème en créant un serveur MCP streamable multi-locataire qui permet de donner du contexte aux outils en diffusant leurs capacités de manière dynamique, en fonction des données des locataires.
Au cours de cette présentation, Bob expliquera les difficultés pratiques de la concrétisation de cette vision :
Comment nous avons étendu le SDK Python FastMCP avec une couche dynamique permettant de générer des descriptions des outils pour chaque locataire au moment de la demande
Comment nous avons utilisé HTTP Streamable pour préserver l’efficience et l’évolutivité des réponses pour des centaines de locataires
Les grandes difficultés que nous avons rencontrées en lien avec le partitionnement, la gestion du contexte des demandes et la vérification de la compatibilité avec les clients MCP existants
Pourquoi les outils sensibles au contexte permettent d’assurer le routage en toute confiance, sans se baser sur des hypothèses, et de rendre ainsi les interactions fluides et naturelles
À la fin de cette présentation, vous saurez comment déployer des outils dynamiques sur votre propre serveur MCP, mais aussi comment les déployer dans un environnement SaaS multi-locataire sans jamais dévier des spécifications du protocole officiel. Cette analyse technique approfondie vous aidera à créer une infrastructure qui permet de rendre enfin naturelle l’utilisation d’outils MCP.
Nate Barbettini
Ingénieur et fondateur - Arcade.dev
La mise en place de serveurs Model Context Protocol offre un moyen efficace d’étendre les capacités des LLM, mais que se passe-t-il lorsque vous quittez votre environnement local ? Derrière chaque démo MCP se cache un écheveau de problématiques de sécurité et d’autorisation. Dans cette présentation, Nate nous explique en quoi la dernière mouture des spécifications MCP permet de mettre en place une autorisation multi-utilisateur fine. Vous verrez, le sujet est moins rébarbatif qu’il en a l’air. Au passage, il reviendra sur les meilleures pratiques de sécurisation des serveurs MCP en production.
John McBride
Ingénieur principal - Zuplo
En 2025, ce sont les agents IA qui forment le gros des troupes de nouveaux utilisateurs. Ces agents sont capables d’interagir en toute autonomie avec votre système pour en extraire des données et réaliser des opérations. Pour certaines entreprises, ils constituent une menace à mettre sous contrôle. Pour d’autres, ils permettent aux clients d’interagir avec les systèmes de manière inédite.
Dans tous les cas, vous devez régir leurs interactions avec votre plateforme. Les API permettent de déterminer à quelles ressources l’IA a accès, comment elle peut accéder à ces données et ce qu’elle peut en faire. Vos API et les systèmes associés doivent être compréhensibles par les agents, proposer suffisamment de fonctionnalités pour leur permettre d’accomplir leurs tâches et se montrer assez solides pour gérer un volume important de trafic automatisé.
Rene Brandel
Cofondateur et PDG - Casco (promotion Printemps 2025 du Y Combinator)
Nous avons hacké 7 des 16 agents IA de la promotion Printemps 2025 du Y Combinator accessibles publiquement. Nous avons ainsi pu divulguer des données utilisateurs, exécuter du code à distance et nous emparer de bases de données, tout ça, en 30 minutes par agent. Au cours de cette présentation, nous allons décrypter les erreurs fréquentes de ces entreprises et les moyens permettant de résoudre ces problèmes de sécurité avant que vos agents ne mettent en péril votre propre business.
Nnenna Ndukwe
Ambassadrice technique - Qodo AI
Vous ne pouvez pas vous contenter de demander si votre application basée sur un LLM fonctionne en production. Vous devez comprendre comment elle échoue dans des conditions difficiles. Dans cette présentation, nous allons nous intéresser aux tactiques utilisées par de véritables acteurs malveillants dont les red teams peuvent s'inspirer pour mettre à l'épreuve les systèmes d’IA générative : prompts malveillants, analyse du comportement des modèles, jailbreaks ou encore stratégies d’évasion inédites. Vous y découvrirez comment créer un scénario de test spécifique à l’IA, simuler des scénarios de détournement et intégrer le red teaming dans votre SDLC. Les LLM sont imprévisibles, mais il reste possible de les évaluer de manière systématique. Nous verrons comment rendre les applications d’IA testables, reproductibles et sécurisées en agissant sur leur conception.
Aamiruddin Syed
Sécurité des logiciels de la chaîne d'approvisionnement - AGCO Corp.
De modèles statiques, les systèmes d’IA deviennent rapidement des nuées d’agents autonomes disposant chacun de leur propre identité, prenant leurs propres décisions et possédant leurs propres droits d’accès. Les systèmes classiques de gestion des identités et des accès (IAM) ont été pensés pour les humains et les comptes de services statiques, et sont donc incapables de gérer cette évolution. Dans cette présentation, nous verrons comment l’IA agentique bouleverse la gestion des identités en imposant la mise en place d’une identité vérifiable, auditable et révocable à chaque agent. Nous nous appuierons sur le Top 10 OWASP des risques liés aux identités non humaines et au framework IAM de CSA pour l’IA agentique afin d’analyser de nouveaux modèles de confiance, les vecteurs d’attaque dans le monde réel et des stratégies concrètes permettant de mieux assurer la responsabilité des systèmes autonomes et de les sécuriser.
Jeff Watkins
Directeur technique - CreateFuture
L’IA générative offre des opportunités incroyables, mais pose aussi de sérieux risques pour la cybersécurité. Vol de données, manipulation des modèles, empoisonnement des données d’entraînement, perturbations opérationnelles ou vulnérabilités de la chaîne d’approvisionnement, tous ces risques prennent de l’ampleur avec l’accélération de son adoption. Cette présentation aborde le framework STOIC (Stolen, Tricked, Obstructed, Infected, Compromised), un acronyme représentant ces cinq menaces et qu’il vous aide à identifier et neutraliser. Elle vous permettra de mieux comprendre les risques liés à l’IA générative, de rendre vos systèmes plus robustes, de sécuriser votre chaîne d’approvisionnement, d’assurer une gouvernance claire et de préserver votre agilité. L’IA générative change la donne, mais impose la mise en place proactive de défenses sur plusieurs niveaux pour éviter qu’elle ne se transforme en boulet pour votre sécurité. Avec la bonne stratégie, elle peut devenir un outil sûr qui changera la donne pour votre entreprise.
Brett Smith
Distinguished Software Engineer - SAS
Le serveur MCP peut-il protéger les agents pacifiques des agents et acteurs malveillants ou leur offre-t-il simplement un vecteur d’attaque supplémentaire ? Cette présentation analyse la nouvelle surface d’attaque générée par les serveurs MCP et l’IA agentique, en se concentrant sur les vulnérabilités potentielles et les stratégies de protection à déployer. Elle révélera également comment l’IA agentique peut optimiser le SDLC, sans faire l’impasse sur les risques qu’elle introduit. Découvrez le rôle des serveurs MCP dans la gestion de ces risques et les stratégies permettant de les protéger des attaques. Vous obtiendrez notamment des réponses aux questions suivantes :
Quelle forme prend l’IA agentique dans le SDLC ?
Quel risque de sécurité l’IA agentique introduit-elle dans le SDLC ?
Comment les serveurs MCP peuvent-ils contribuer à sécuriser la chaîne d’approvisionnement ?
Quels sont les risques inhérents à l’utilisation de serveurs MCP ?
Quelles stratégies permettent de limiter les attaques visant les serveurs MCP ?
Jeff Andersen
Responsable de la gestion produit - Snyk
Brendan Hann
Responsable du marketing produit - Snyk
La stratégie du shift-left reste plus importante que jamais. Au cours de cette présentation, nous vous montrerons comment Snyk aide les développeurs à livrer leur code sans sacrifier la sécurité sur l’autel de la vitesse ni perturber leur workflow.
Itay Maor
Directeur de la gestion produit - Snyk
Kate Powers
Responsable du marketing produit - Snyk
Pour faire face à l’évolution de l’IA, les équipes AppSec doivent elles-mêmes évoluer. Dans cette session, nous vous révélerons en quoi la plateforme Snyk de fiabilisation de l’IA donne aux équipes AppSec une visibilité et un contrôle qui leur permettent de véritables stratèges plutôt que de simples gestionnaires de tâches.
Ryan McMorrow
Responsable de la gestion produit - Snyk
Brendan Hann
Responsable du marketing produit - Snyk
Cette présentation porte sur les stratégies de correction pour les conteneurs et le code open source, ainsi que sur un score de solidité/des cadres de confiance permettant d’automatiser les corrections des problèmes du code open source qui présentent un risque de défaillance limité.
Ezra Tanzer
Responsable de la gestion produit - Snyk
Daniel Berman
Directeur du marketing produit - Snyk
Brendan Putek
Directeur du DevOps - Relay Network
La priorisation et la correction ralentissent les processus AppSec classiques. Découvrez comment Snyk permet aux développeurs de corriger le code en toute confiance sans introduire de changements amenant à des défaillances.
Rudy Lai
Directeur de l’incubation technologique - Snyk
Pour sécuriser l’IA nouvelle génération, l’adoption d’un nouveau paradigme de sécurité s’impose. Avec la montée en puissance de l’IA agentique et des applications intégrant nativement l’IA, la surface d’attaque s’étend et des risques inédits font leur apparition, de l’injection de prompts aux flux toxiques, en passant par l’imprévisibilité liée aux comportements non déterministes. Les outils de sécurité classiques basés sur des règles, conçus pour le déterminisme et le paramétrage, ne sont tout simplement plus à la hauteur. Pour sécuriser l’innovation permise par l’IA, nous avons besoin d’une nouvelle génération d’équipes de sécurité, des ingénieurs en sécurité de l’IA qui s’appuient sur leurs propres systèmes d’orchestration de la sécurité agentique. Dans cette présentation, nous allons voir les missions centrales de ces systèmes et étudier l’opportunité offerte par cette orchestration en matière de visibilité, de compréhension et de résolution des menaces complexes pesant sur les applications intégrant nativement l’IA.
Nous vous préparons une grosse surprise pour la DevSecCon25… notre tout premier défi de sécurisation de l’IA pour les développeurs !
Il vous faudra réfléchir vite et faire preuve de créativité pour trouver des solutions, en collaboration avec les plus grands esprits du monde entier. Nous ne vous en dirons pas plus pour le moment, mais vous pouvez nous faire confiance, c’est un moment à ne pas manquer ! Inscrivez-vous dès maintenant pour recevoir nos communications sur le sujet et réserver votre place avant qu’il ne soit trop tard !
Vous n'êtes pas encore inscrit ? Notre palmarès d’intervenants va vous convaincre de franchir le pas. Des leaders d’opinion aux techniciens experts, tous sont là pour vous inspirer et vous challenger dans une atmosphère propice à l’humour. Ne manquez pas cette chance d’apprendre des meilleurs, réservez votre place dès maintenant !
Stone Werner
Software Engineer, Ragie.ai

Zack Kass
Global AI Advisor and Former Head of Go-To-Market, OpenAI

Zack Proser
Developers Education, WorkOS

Nnenna Ndukwe
Principal Developer Advocate, Qodo

Guy Podjarny
Founder and CEO, Tessl

John McBride
Staff Engineer, Zuplo

Nate Barbettini
Founding Engineer, Arcade.dev

W. Ian Douglas
Staff Developer Advocate, Block

Rene Brandel
Cofounder & CEO, Casco (YC X25)

Brett Smith
Distinguished Software Engineer, SAS

Jeff Watkins
Chief Technology Officer, CreateFuture

Harshad Sadashiv Kadam
Senior Infrastructure Security Engineer, Indeed Inc

Peter McKay
CEO, Snyk

Manoj Nair
Chief Innovation Officer, Snyk

Danny Allan
Chief Technology Officer, Snyk

Aamiruddin Syed
Supply Chain Software Security, AGCO Corporation

Brendan Putek
Director of DevOps, Relay Network

Jeff Andersen
Senior Director, Product Management, Snyk

Brendan Hann
Senior Product Marketing Manager, Snyk

Itay Maor
Senior Manager, Product, Snyk

Kate Powers
Senior Product Marketing Manager, Snyk

Ryan McMorrow
Staff Product Manager, Snyk

Ezra Tanzer
Director, Product Management, Snyk

Daniel Berman
Product Marketing Director, Snyk

Rudy Lai
Director, Technology Incubation • Emerging Technologies & Solutions, Snyk

Réservez une place de choix pour un événement exceptionnel, au cours duquel nous aborderons des stratégies avancées de fiabilisation de l'IA. Découvrez des stratégies et meilleures pratiques incontournables pour sécuriser votre transition vers l’intégration native de l’IA.
Les participants à la DevSecCon 2024 ont pu engranger de nombreuses informations très utiles et écouter les points de vue passionnants de leaders de la sécurité. Replongez-vous dans les grands moments de cet événement virtuel et physique pour guider votre feuille de route. Restez à l’affût pour en savoir plus sur le programme de cette année !