Peut-on poursuivre une intelligence artificielle en justice ?
- assonovia
- Nov 17, 2025
- 6 min read
Updated: Mar 9
L’intelligence artificielle (IA) occupe aujourd’hui une place centrale dans nos vies, souvent de manière invisible.
Elle fait partie intégrante de notre quotidien : elle intervient dans les recommandations de contenus sur les réseaux sociaux et les plateformes de streaming, dans les décisions automatisées prises par les banques, les assurances ou les employeurs, mais aussi dans la création de contenus écrits, visuels ou sonores. Les systèmes d’IA analysent des volumes massifs de données afin d’orienter des choix qui peuvent avoir des conséquences concrètes sur les individus : accès à un emploi, à un crédit, à un soin, ou encore à une information.
Cette intégration croissante de l’IA dans des domaines sensibles modifie en profondeur nos usages, mais aussi nos rapports à la décision et à la responsabilité.
Ces systèmes ne sont pas seulement des outils techniques ; ils influencent des situations humaines réelles, parfois sans que leurs utilisateurs comprennent entièrement comment ils fonctionnement. C’est cette capacité de l’IA à générer des effets juridiques, économiques et sociaux tangibles qui rend nécessaire une réflexion approfondie sur les règles de responsabilité applicables.
Lorsqu’un dommage se produit, un réflexe se manifeste : « et si l’IA était responsable, peut-on la poursuivre en justice ». Cette question redessine le débat juridique actuel autour des mécanismes de responsabilité.
1 : L’IA n’est pas personnellement responsable juridiquement
En droit, la personnalité juridique désigne la capacité pour une personne ou une entité d’avoir des droits et des obligations.
Elle permet ainsi de pouvoir conclure un contrat, d’être obligé de respecter la loi, de réparer un dommage et d’être partie à un procès. Ainsi, la personnalité juridique remplit une fonction essentielle : désigner un responsable identifiable.
Seules les personnes physiques et certaines personnes morales reçoivent la personnalité juridique. A ce jour, l’IA ne dispose pas de personnalité juridique. Elle n’a effectivement pas d’existence juridique autonome, elle ne possède pas de patrimoine et ne peut ni comprendre, ni assumer les sanctions. Ainsi, l’IA ne peut donc pas être tenue responsable, pénalement ou civilement.
Résultat : On ne peut donc jamais attaquer l’IA en justice : ce sont toujours les humains ou les entités qui l’ont conçue ou utilisée qui doivent répondre de ses actes.
2 : La responsabilité se déplace vers les humains derrière l’IA
Puisque l’IA ne peut pas être jugée ou sanctionnée directement, la responsabilité se déplace vers les personnes qui la conçoivent, la déploient ou l’utilisent. On retrouve alors le concepteur du système de l’IA et l’entreprise qui l’exploite, ainsi que les utilisateurs. La loi prévoit plusieurs moyens permettant d’engager la responsabilité de toutes ces personnes, peu important sa qualité.
Le droit français a dû évoluer pour s’adapter au monde du numérique. En effet, on constate en pratique qu’il n’est pas toujours simple pour les personnes lésées d’obtenir réparation, en raison de la complexité technique des systèmes d’IA et de la difficulté à établir la preuve de la responsabilité.
Le régime de la responsabilité civile extracontractuelle du fait des produits défectueux a ainsi été adapté pour prendre en compte les nouveaux enjeux technologiques. L’article 1242 du Code civil dispose que : « On est responsable non seulement du dommage que l'on cause par son propre fait, mais encore de celui qui est causé par le fait des personnes dont on doit répondre, ou des choses que l'on a sous sa garde. ». Cela amène à se poser plusieurs questions face à l’IA : le dommage causé par l’IA peut-il entrer dans ce cadre ? Comment la notion de garde s’applique-t-elle à un système d’IA ?
La directive européenne du 23 octobre 2024 est venue définir la notion de produit en l’étendant aux outils numériques, y compris l’IA : « tout meuble même s’il est incorporé dans un autre meuble ou dans un immeuble ou interconnecté avec celui-ci ; le terme comprend l’électricité, les fichiers de fabrication numériques, les matières premières et les logiciels”.
C’est une définition extensive permet d’intégrer plus facilement les nouvelles technologies au régime de produits défectueux. Elle permet également la réparation des préjudices subis par les personnes physiques. Ainsi, l’IA, en tant qu’outil logiciel, peut être qualifiée de « chose » au sens juridique.
L’IA étant conçue pour agir de façon partiellement autonome, la notion de « garde » devient complexe. Pour rappel, en droit, on considère que le gardien de la chose est celui qui en a l’usage, la direction et le contrôle. Or, un système d’IA peut prendre des décisions sans intervention humaine directe, ce qui complique la situation.
Le concepteur de l’IA peut ainsi avoir sa responsabilité engagée en cas de défaut de conception ou de sécurité. L’utilisateur, quant à lui, peut être mis en cause s’il l’utilise l’outil de manière inappropriée ou sans vérifier ses recommandations.
La responsabilité peut également incomber à une entreprise qui déploie une IA sans formation adéquate ni protocoles clairs. De façon générale, toute utilisation de l’IA portant atteinte à la vie
privée, à la dignité, au droit à l’image ou qui servirait à commettre une infraction pénale, engage la responsabilité de son auteur.
Enfin, au-delà de la responsabilité civile du fait des produits défectueux, il existe aussi la responsabilité contractuelle : les entreprises fournissant des systèmes d’IA peuvent être responsables si l’outil ne respecte pas les engagements contractuels (fiabilité, conformité, sécurité).
À cela s’ajoute, la responsabilité pour négligence, qui permet de poursuivre un concepteur n’ayant pas mis en place les précautions nécessaires (tests, supervision, limite d’usage, modération, etc.)
3 : Vers une responsabilité hybride : le tournant européen:
Au regard des enjeux que l’IA présente, l’Union européenne intervient pour réguler et encadrer l’utilisation de l’IA. Ainsi, le règlement européen sur l’IA, plus communément appelé IA Act entré en vigueur le 1er aout 2024 met en avant une classification de l’IA selon son niveau de risque : minimal, limité, élevé et inacceptable. Cela permet de soumettre les systèmes d’IA à des obligations plus ou moins strictes en fonction de leur niveau de risque. Les systèmes d’IA à haut risque sont soumis par exemple à des obligations strictes de transparence, de sécurité et de respect des droits fondamentaux.
Ce règlement permet la mise en place d’un cadre juridique harmonisé pour l’IA dans l’UE, tout en favorisant l’innovation et en protégeant les citoyens contre les risques liés à cette technologie.
Il met ainsi en place une responsabilité partagée entre concepteurs et utilisateurs de l’IA. Il ne vise donc pas précisément le régime de esponsabilité des produits défectueux, mais il permet, selon les circonstances, d’engager la responsabilité du concepteur ou de l’utilisateur en fonction du dommage causé par le système d’IA.
L'IA Act démontre une avancée majeure dans la volonté d’instaurer un véritable cadre réglementaire autour de l’IA, bien qu’il ne réponde pas à toutes les questions. Une évolution sur la répartition claire de la responsabilité entre les concepteurs et les utilisateurs en cas de dommage causé par l’IA reste attendue.
4 : Conclusion & quelques exemples
L’affaire de Tesla Autopilot permet de démontrer que l’IA intégrée à un produit peut entraîner une réparation devant les tribunaux en raison de la responsabilité de l’entreprise qui la conçoit et la met sur le marché
En 2025, aux États-Unis, Tesla a été condamné à indemniser les victimes d’un accident mortel impliquant sa technologie d’assistance à la conduite Autopilot. La justice a estimé que Tesla avait contribué à l’accident, notamment en permettant l’usage du système hors de son cadre prévu et en ayant communiqué de manière trompeuse sur ses capacités. Tesla a été condamné à verser des centaines de millions de dollars, même si la responsabilité du conducteur a également été prise en compte.
Également, toujours en 2025, une famille a saisi la justice californienne contre OpenAI, affirmant que le chatbot (IA) avait encouragé un adolescent à commettre un suicide.
La famille soutient que l’entreprise n’a pas pris suffisamment de mesures pour protéger les utilisateurs vulnérables des contenus dangereux ou incitatifs. Cette affaire illustre comment la responsabilité peut être echerchée, non pas contre l’IA elle-même, mais contre son éditeur, en raison d’un manquement aux obligations de sécurité lors de la conception ou de la mise en service de l’outil.
En conclusion, on ne juge pas une intelligence artificielle. Mais on cherche toujours la responsabilité de celui qui l’a conçue, l’a déployée ou encore l’a utilisée sans vigilance. On ne peut pas juger et engager la responsabilité d’une « machine », mais il convient de clarifier les responsabilités des personnes pouvant être impliquées, tout en garantissant une réparation effective des dommages.
Article rédigé par Lea MAUNIER
SOURCES:
Village-justice.com, article écrit par Yasser Elkouri sur les enjeux juridiques et perspectives réglementaires sur la responsabilité du fait des choses à l’ère de l’IA
La Robe Numérique, article sur la Responsabilité et intelligence artificielle : les fondements mobilisables




Comments