Les enjeux de l'intelligence artificielle en droit français
- Rodolphe Rous
- 27 mars
- 15 min de lecture

INTRODUCTION
L’intelligence artificielle (IA), entendue comme l’ensemble de techniques visant à imiter ou à dépasser certaines capacités cognitives humaines, suscite un vif intérêt depuis plusieurs années, tant sur le plan économique que sociétal. Les possibilités offertes par l’IA, que ce soit en matière d’automatisation des tâches, d’aide à la décision ou encore d’analyse prédictive, amènent les acteurs publics et privés à repenser de nombreux domaines, du secteur industriel à la gestion de la relation client. Sur le plan juridique, l’IA soulève des problématiques nouvelles, allant de la responsabilité civile pour dommages causés par une entité algorithmique, à la protection des données personnelles dans un contexte de collecte massive d’informations, en passant par la question de la discrimination algorithmique ou encore des droits de propriété intellectuelle liés à la création générée par une machine. En droit français, plusieurs textes se combinent pour encadrer, de manière transversale, les divers usages de l’IA : le Code civil (et en particulier ses dispositions relatives à la responsabilité délictuelle ou contractuelle), le Code de la consommation, le Code pénal, la Loi n°78-17 du 6 janvier 1978 relative à l’informatique, aux fichiers et aux libertés, ainsi que le Règlement (UE) 2016/679 du 27 avril 2016 (RGPD) pour la protection des données à caractère personnel. À cela s’ajoute l’échelon européen, qui entend renforcer l’encadrement de l’IA au travers d’un projet de Règlement européen sur l’intelligence artificielle, mettant en lumière la volonté des institutions de l’Union européenne de créer un cadre harmonisé et adapté à ces innovations.
L’objet de cet exposé est de dresser un panorama des principaux enjeux juridiques de l’IA en droit français, en insistant sur les textes applicables, les points d’attention pour les acteurs économiques et les réflexions éthiques et pratiques qui s’imposent à l’horizon d’une large diffusion des systèmes IA dans la société.
I. DÉFINITION ET CONTOURS LÉGISLATIFS DE L’INTELLIGENCE ARTIFICIELLE
Pour appréhender l’IA, il convient d’en proposer une définition opérationnelle et de situer cette notion dans l’ordre juridique. Le droit positif français ne comporte pas encore de définition unique et harmonisée de l’intelligence artificielle. Les textes actuels, qu’ils soient nationaux ou européens, emploient des expressions variées, telles que « systèmes automatisés » ou « systèmes algorithmiques », mais tendent à converger vers l’idée d’une entité logicielle ou matérielle, capable de traiter des données de manière autonome, d’apprendre de ses interactions et de prendre des décisions ou de faire des prévisions à partir d’ensembles de données.
Le futur Règlement européen sur l’IA (souvent désigné “AI Act” dans les travaux préparatoires de la Commission européenne) propose de considérer l’IA comme un ensemble de logiciels ayant pour objectif de reproduire ou d’imiter des processus cognitifs humains, en recourant à des méthodologies comme l’apprentissage automatique, les méthodes statistiques ou encore l’optimisation de modèles mathématiques. En droit français, plusieurs textes permettent d’encadrer indirectement ces technologies, bien qu’aucun ne propose à ce jour de cadre spécifique et exhaustif exclusivement consacré à l’IA. Ainsi, la Charte éthique pour l’IA élaborée par la CNIL et d’autres autorités ou organismes publics offre des lignes directrices, tandis que certaines dispositions du Code civil, relatives à la responsabilité et aux contrats, trouvent déjà à s’appliquer dans l’optique de pallier les éventuels vides juridiques que l’IA pourrait engendrer. Ce paysage législatif doit être complété par la Loi Informatique et Libertés de 1978 (modifiée à plusieurs reprises) et, bien évidemment, par le RGPD, qui impose des contraintes strictes en matière de traitement automatisé de données, plus particulièrement lorsqu’il s’agit de données sensibles ou de décisions automatisées produisant des effets juridiques. L’IA se situe donc à la croisée de différents champs du droit, nécessitant une approche transversale pour appréhender correctement les questions de conformité, de responsabilité et de protection des droits fondamentaux.
II. LES SOURCES LÉGALES ET RÉGLEMENTAIRES ENCADRANT L’IA
Le socle juridique qui s’applique à l’IA en droit français peut être décrit en trois catégories de normes : les textes de droit interne, les textes de l’Union européenne, et les instruments dits « souples » (soft law) ou principes directeurs d’origine tant publique que privée. En premier lieu, on trouve divers articles du Code civil, en particulier l’article 1240 qui consacre le principe de la responsabilité extracontractuelle du fait personnel, et l’article 1242 relatif à la responsabilité du fait des choses dont on a la garde, qui peuvent offrir une base légale pour sanctionner un opérateur ou un propriétaire de système IA causant un dommage. Le Code pénal peut également être mobilisé, notamment lorsque le recours à un algorithme conduit à la commission d’une infraction, qu’elle soit intentionnelle (escroquerie, discrimination, collecte illicite de données) ou non intentionnelle. Le Code de la consommation et les dispositions sur la conformité des biens et services numériques (issues en partie de la transposition de la Directive (UE) 2019/770) trouveront à s’appliquer lorsqu’un système IA est vendu ou loué à un consommateur, soulevant la question d’éventuels vices ou défauts de conformité. Viennent ensuite les textes européens, dont le RGPD demeure à ce jour la référence la plus structurante pour toutes les problématiques liées à la protection des données. L’article 22 du RGPD, concernant la prise de décision entièrement automatisée, pose ainsi les jalons d’une régulation spécifique, en imposant notamment un droit à l’intervention humaine et un droit à la contestation pour la personne concernée. Dans le prolongement du RGPD, la Commission européenne a présenté en avril 2021 une proposition de Règlement sur l’IA, qui vise à évaluer les risques liés aux différents systèmes algorithmiques, en instaurant une classification (systèmes à risques inacceptables, élevés ou limités). Les éditeurs ou opérateurs d’IA soumis à ce règlement, une fois adopté, devront satisfaire à des obligations en matière de gouvernance des données, de documentation technique, de supervision humaine et de robustesse du système, sous peine de sanctions financières conséquentes. Enfin, la soft law joue un rôle croissant, à travers des lignes directrices publiées par la CNIL, l’OCDE, l’UNESCO ou encore des organismes professionnels (chartes éthiques, codes de conduite). Ces documents, s’ils n’ont pas de valeur contraignante au sens strict, contribuent à façonner les standards de l’industrie et peuvent être pris en compte par le juge ou par des autorités administratives indépendantes pour interpréter et appliquer les dispositions légales existantes. L’ensemble de ces sources témoigne de la nécessité de maîtriser les différents niveaux de réglementation et de garder à l’esprit que le droit de l’IA reste en partie en construction, particulièrement à l’échelle européenne.
III. RESPONSABILITÉ CIVILE ET PÉNALE EN MATIÈRE D’IA
La question de la responsabilité constitue un enjeu majeur pour l’encadrement juridique de l’IA. En effet, il convient de savoir qui, de l’éditeur du logiciel, du fabricant du robot, de l’utilisateur professionnel ou du simple propriétaire, doit répondre en cas de dommage causé par un système IA. En droit français, la responsabilité civile est traditionnellement régie par les articles 1240 et 1241 du Code civil (responsabilité pour faute) ainsi que par l’article 1242, qui instaure une responsabilité du fait des choses ou du fait d’autrui. La jurisprudence a pu considérer, par analogie, qu’un système automatisé ou un algorithme peut être qualifié de « chose » au sens de l’article 1242 du Code civil, faisant peser la responsabilité sur le gardien du système, c’est-à-dire celui qui a l’usage, la direction et le contrôle de ce dernier. Toutefois, la complexité croissante des algorithmes, dotés de capacités d’apprentissage (machine learning) et d’autonomie décisionnelle, soulève l’interrogation de savoir si la simple application du régime de responsabilité du fait des choses est adaptée. Certains auteurs proposent d’aménager le régime de la responsabilité pour faute, en exigeant qu’un opérateur humain demeure dans le circuit décisionnel, tandis que d’autres suggèrent une forme de responsabilité objective propre à l’IA, éventuellement couplée à une obligation d’assurance. Du point de vue pénal, le Code pénal sanctionne la commission d’infractions pour lesquelles la preuve de l’intention et la capacité de discernement sont souvent requises (articles 121-3 et suivants du Code pénal). Or, un algorithme ne saurait, par définition, être doué d’intention criminelle au sens où le droit pénal l’entend. La responsabilité pénale pourrait donc rejaillir sur la personne physique ou morale qui conçoit, programme, déploie ou utilise le système IA défectueux ou mal paramétré. L’article 121-2 du Code pénal prévoit la responsabilité pénale des personnes morales, ce qui peut s’appliquer à une entreprise exploitant un système IA, à condition qu’il soit démontré que l’infraction a été commise pour leur compte par leurs organes ou représentants. La jurisprudence pourrait, à terme, affiner ces principes lorsque des contentieux liés aux dommages causés par une IA se multiplieront. Dans cette perspective, le futur Règlement européen sur l’IA et les initiatives législatives nationales auront pour tâche de clarifier les modalités de mise en œuvre de la responsabilité, afin d’éviter des lacunes préjudiciables aux victimes et d’offrir une sécurité juridique aux acteurs économiques.
IV. PROTECTION DES DONNÉES ET RGPD
La protection des données à caractère personnel est un enjeu fondamental dans le domaine de l’IA, où la valeur ajoutée des algorithmes dépend souvent de la qualité et de la quantité des données traitées. En droit français, l’arsenal législatif repose essentiellement sur la Loi Informatique et Libertés du 6 janvier 1978, modifiée pour se conformer au RGPD, qui constitue le cadre unifié au niveau de l’Union européenne. Le RGPD impose plusieurs obligations aux responsables de traitement et aux sous-traitants, notamment en termes de base légale du traitement, de principe de minimisation des données, de conservation limitée, d’information et de consentement des personnes concernées (articles 5 à 11 du RGPD). Lorsque l’IA est mise en œuvre pour prendre des décisions automatisées susceptibles de produire des effets juridiques ou significatifs sur une personne, l’article 22 du RGPD impose un droit d’opposition, un droit à l’intervention humaine et un droit de contester la décision. Pour les entreprises, le déploiement d’un algorithme d’apprentissage automatique suppose en outre la mise en place de mesures techniques et organisationnelles appropriées (article 32 du RGPD) afin de garantir un niveau de sécurité adapté au risque, de prévenir les failles de sécurité et de respecter les principes de privacy by design et privacy by default (articles 25 et suivants du RGPD). Par ailleurs, si le traitement opéré par l’IA porte sur des données sensibles (origine raciale, opinions politiques, santé, orientation sexuelle, etc.), l’article 9 du RGPD restreint considérablement les conditions de licéité du traitement, nécessitant un consentement explicite ou un motif d’intérêt public majeur prévu par la loi. La CNIL, autorité compétente en France, peut prononcer des sanctions allant jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial en cas de manquement grave. Les acteurs souhaitant utiliser l’IA doivent donc s’assurer d’une parfaite conformité au RGPD, notamment en recensant les finalités du traitement, en clarifiant la chaîne des responsabilités dans l’apprentissage et le déploiement de l’algorithme, et en s’assurant du respect des droits des personnes (droits d’accès, de rectification, d’effacement, etc.). Cette exigence de conformité constitue un enjeu à la fois juridique, commercial et réputationnel, dans la mesure où la protection de la vie privée est perçue comme un facteur de confiance, essentiel à l’acceptation sociale des technologies IA.
V. PROPRIÉTÉ INTELLECTUELLE ET IA
L’intelligence artificielle soulève des questions complexes en matière de propriété intellectuelle, en particulier lorsque l’IA crée ou contribue à créer des œuvres originales ou des inventions brevetables. Le droit français de la propriété intellectuelle, s’agissant des droits d’auteur, est codifié dans le Code de la propriété intellectuelle (CPI). L’article L.111-1 du CPI pose le principe selon lequel l’auteur d’une œuvre de l’esprit jouit d’un droit de propriété exclusif et opposable à tous. Or, l’auteur doit être une personne physique, dotée d’une personnalité juridique, ce qui exclut la machine en tant que titulaire de droits d’auteur. Dès lors, se pose la question : qui est l’auteur d’une œuvre générée par un algorithme d’IA ? Les tribunaux pourraient considérer que l’utilisateur ou le programmeur de l’IA est l’auteur, à la condition qu’il exerce un apport intellectuel significatif ou un choix créatif décisif dans le processus de génération de l’œuvre. À défaut, si l’œuvre est le fruit exclusif du fonctionnement autonome de l’algorithme, on risque de se heurter à un vide juridique, puisque l’IA ne dispose pas de la personnalité juridique. Sur le terrain des brevets, régis par le Code de la propriété intellectuelle et la Convention sur le brevet européen, une invention doit être nouvelle, impliquer une activité inventive et être susceptible d’application industrielle. Là encore, l’inventeur est censé être une personne physique. Des organismes de brevet tels que l’Office européen des brevets (OEB) ou l’INPI en France ont déjà été confrontés à des demandes de brevets listant un algorithme comme inventeur, et ils les ont refusées, estimant que seul un être humain peut être désigné comme inventeur. Cette position met en lumière la nécessité de clarifier le statut des créations et inventions résultant de l’IA. Les projets de réforme, tant au niveau national qu’européen, envisagent des solutions variées, allant de l’élargissement de la notion d’auteur ou d’inventeur à la reconnaissance d’une personnalité électronique pour certaines IA avancées. Cette dernière piste, toutefois, suscite de fortes réticences, car elle remettrait en cause le principe traditionnel selon lequel seuls les êtres humains et les entités morales (sociétés, associations, etc.) peuvent être titulaires de droits ou d’obligations. De plus, l’octroi de droits de propriété intellectuelle à l’IA soulève des problématiques d’équité et d’attribution des revenus, dans la mesure où l’on devrait définir les bénéficiaires réels de la valeur créée par l’algorithme. Dans l’attente d’une réforme de grande ampleur, la pratique montre que les entreprises recourent à des contrats stipulant les modalités de répartition des droits entre le concepteur, le prestataire, l’utilisateur et tout autre acteur impliqué dans la chaîne de valeur.
VI. IA ET DROIT DU TRAVAIL
L’automatisation croissante permise par l’IA a un impact significatif sur le droit du travail. Les algorithmes de recrutement, d’évaluation de la performance, ou de planification des emplois du temps des salariés soulèvent des questions de discrimination, de respect des libertés individuelles et de contrôle. Le Code du travail français contient un certain nombre de règles protégeant les salariés contre les pratiques discriminatoires, notamment les articles L.1132-1 et suivants qui interdisent toute discrimination fondée sur des critères comme l’âge, le sexe, la religion ou l’origine ethnique. Or, les systèmes d’IA, s’ils sont entraînés sur des jeux de données biaisés, peuvent reproduire ou amplifier les discriminations existantes. Une entreprise qui recourt à un algorithme de recrutement discriminatoire pourrait voir sa responsabilité engagée devant le juge prud’homal, ou faire l’objet d’un contrôle de l’inspection du travail et de la CNIL si des données personnelles sont en cause. Par ailleurs, l’article L.1222-4 du Code du travail et la jurisprudence imposent le respect de la vie privée du salarié, y compris dans l’entreprise. L’utilisation d’outils algorithmiques pour surveiller en temps réel la productivité ou les communications des salariés doit donc être encadrée, et l’employeur doit informer préalablement les salariés de l’existence d’un dispositif de contrôle. Lorsque l’IA est utilisée pour la prise de décision concernant des promotions, des licenciements ou des modifications substantielles du contrat de travail, il convient de s’assurer qu’une validation humaine intervienne, conformément à l’esprit de l’article 22 du RGPD, transposable par analogie dans la relation de travail. Sur un plan plus macroéconomique, l’essor de l’IA pose la question de la transformation des emplois et du risque de disparition de certains métiers, à la faveur de l’automatisation de tâches répétitives ou analytiques. Le Code du travail ne prévoit pas de dispositifs spécifiques pour gérer ce phénomène, mais les outils existants (obligation de reclassement, plan de sauvegarde de l’emploi, formation professionnelle continue) pourraient devoir être ajustés pour anticiper les mutations technologiques liées à l’IA. Plusieurs réflexions sont en cours, tant au niveau national qu’au niveau européen, pour encourager la formation et la reconversion vers des métiers moins exposés à l’automatisation. Dans ce contexte, le dialogue social s’avère essentiel pour encadrer de manière équilibrée l’introduction de l’IA en entreprise, afin de concilier compétitivité et respect des droits fondamentaux du travailleur.
VII. ÉTHIQUE ET DISCRIMINATION ALGORITHMIQUE
Au-delà des règles juridiques formelles, l’IA interpelle la société sur les questions d’éthique, notamment en matière de discrimination algorithmique, de transparence et de respect de la dignité humaine. Le droit français et européen consacrent plusieurs principes fondamentaux (égalité de traitement, non-discrimination, liberté individuelle, droit au respect de la vie privée), inscrits aussi bien dans la Constitution que dans la Charte des droits fondamentaux de l’Union européenne. Or, un algorithme mal conçu ou entraîné sur un jeu de données non représentatif peut aboutir à des décisions discriminatoires, qu’il s’agisse d’accès à l’emploi, au crédit ou aux soins de santé. Le RGPD, dans ses considérants (notamment le considérant 71), insiste sur la nécessité de prévenir et de corriger les biais algorithmiques, imposant des mesures de protection appropriées lorsque des décisions automatisées affectent les droits des individus. La CNIL, de son côté, préconise d’assurer une certaine explicabilité des algorithmes, afin que les personnes concernées puissent comprendre les motifs d’une décision. Cette exigence soulève des défis techniques, car la plupart des algorithmes d’apprentissage profond (deep learning) fonctionnent comme des « boîtes noires », dont même les concepteurs peinent parfois à expliquer les ressorts décisionnels. Sur le terrain de l’éthique, la Déclaration de Montréal pour un développement responsable de l’IA ou la Recommandation sur l’éthique de l’IA adoptée par l’UNESCO en 2021 proposent des principes directeurs visant à garantir le respect des droits humains, la justice et la transparence dans la conception et l’utilisation de l’IA. Bien que non contraignantes, ces initiatives pèsent sur l’opinion publique et incitent les entreprises à adopter des politiques internes de gouvernance des algorithmes, intégrant des comités d’éthique et des procédures d’audit des systèmes. Les autorités publiques françaises, à travers la Stratégie nationale pour l’IA et la mission parlementaire Villani, ont aussi souligné l’importance d’une IA « de confiance » et socialement acceptable. En définitive, l’éthique algorithmique se présente comme un champ où le droit, la technique et la morale se rencontrent, nécessitant une vision globale et la participation conjointe de tous les acteurs : concepteurs, opérateurs économiques, régulateurs, chercheurs et citoyens.
VIII. CONTENTIEUX ET MODES ALTERNATIFS DE RÈGLEMENT DES LITIGES
Avec la multiplication des usages de l’IA, il est probable que les litiges se développent, tant sur le plan civil (responsabilité, propriété intellectuelle, consommation) que sur le plan public (contrôle administratif, marchés publics, etc.). Les juridictions françaises, amenées à statuer sur des affaires impliquant des algorithmes, auront un rôle crucial dans la construction de la jurisprudence, en interprétant et adaptant les règles existantes aux spécificités de l’IA. Par exemple, les juges civils pourront être confrontés à des cas de dommage causé par un robot autonome ou un véhicule autonome, nécessitant d’apprécier l’articulation entre la faute humaine éventuelle, le vice du produit et l’autonomie de décision de la machine. De même, les juges de commerce seront sollicités pour des litiges concernant le secret des affaires (protégé par la Loi n°2018-670 du 30 juillet 2018) lorsqu’un algorithme convoité par un concurrent aurait été illicitement reproduit ou détourné. Les modes alternatifs de règlement des différends (médiation, conciliation, arbitrage) offrent des avantages pour la résolution de litiges liés à l’IA, notamment une plus grande flexibilité et la possibilité de faire appel à des experts techniques. Les clauses d’arbitrage ou de médiation peuvent être insérées dans les contrats relatifs au développement ou à l’exploitation d’un système IA, ce qui permet, le cas échéant, de soumettre le différend à un tribunal arbitral spécialisé en nouvelles technologies. Toutefois, le caractère potentiellement très technique des algorithmes implique souvent une expertise approfondie, qui peut allonger la durée de la procédure, même en arbitrage. En tout état de cause, les différents contentieux et modes de règlement permettront d’affiner progressivement l’interprétation des textes applicables, en attendant l’adoption de législations plus spécifiques au domaine de l’IA.
IX. PERSPECTIVES D’ÉVOLUTION LÉGISLATIVE
Le paysage législatif français et européen relatif à l’IA est en pleine mutation. Le projet de Règlement européen sur l’intelligence artificielle, présenté par la Commission européenne en avril 2021, constitue une étape majeure, dans la mesure où il propose une approche fondée sur les risques et instaure de nouvelles obligations pour les systèmes IA jugés à « haut risque », par exemple dans les secteurs de la santé, de l’éducation, du transport ou de l’administration de la justice. Les discussions au sein du Parlement européen et du Conseil de l’UE visent à préciser les exigences en matière de transparence, de gouvernance des données, de supervision humaine et de contrôle a posteriori. Des sanctions significatives, analogues à celles prévues par le RGPD, sont envisagées en cas de non-respect des dispositions du Règlement IA. En complément, la Commission réfléchit à renforcer l’articulation entre ce futur règlement et d’autres textes sectoriels, comme la Directive sur la responsabilité du fait des produits, dont la révision pourrait mieux tenir compte des produits intégrant de l’IA. En France, le Conseil d’État, la CNIL et divers acteurs institutionnels (dont la Délégation ministérielle à l’intelligence artificielle) participent activement aux débats, en publiant des avis ou rapports. L’harmonisation à l’échelle de l’Union européenne est jugée souhaitable pour éviter un « patchwork » de réglementations nationales pouvant entraver la compétitivité et l’innovation. Dans le même temps, des réflexions se poursuivent pour déterminer s’il convient d’instaurer une personnalité juridique limitée pour certaines IA capables d’agir de manière quasi autonome, ou si la responsabilité doit demeurer dans le champ humain. Sur le volet propriété intellectuelle, l’Organisation mondiale de la propriété intellectuelle (OMPI) étudie de près la question de la titularité des droits d’auteur pour les œuvres générées par IA, mais aucun consensus n’émerge pour l’instant. En définitive, le cadre législatif est appelé à se préciser dans les prochaines années, au fur et à mesure que l’IA s’insère plus profondément dans le tissu économique et social.
X. CONCLUSION GÉNÉRALE
L’intelligence artificielle, loin de n’être qu’un phénomène purement technique, constitue un enjeu juridique majeur, suscitant d’importantes interrogations dans le droit français. Les textes applicables – Code civil, Code pénal, Code de la consommation, Loi Informatique et Libertés, RGPD, etc. – doivent être combinés et parfois adaptés pour répondre aux spécificités de l’IA, qu’il s’agisse de la responsabilisation des acteurs, de la protection des données, de la propriété intellectuelle ou de la prévention de la discrimination algorithmique. Si les principes fondamentaux (responsabilité, consentement, non-discrimination) ne sont pas remis en cause, la mise en œuvre pratique de ces principes se heurte à la complexité technologique et à l’autonomie décisionnelle croissante des systèmes IA. L’émergence d’un cadre européen harmonisé, à travers le projet de Règlement sur l’IA, témoigne de la volonté de concilier innovation et protection des droits fondamentaux, tout en évitant une fragmentation du marché intérieur. Les débats relatifs à la personnalité juridique des IA, à l’opportunité d’une responsabilité objective et aux mécanismes assurantiels traduisent la difficulté à appréhender un outil qui se rapproche de l’humain par certaines de ses capacités, sans toutefois pouvoir être assimilé à une personne. Il ressort néanmoins de l’état du droit français que les réponses juridiques existent déjà, au moins partiellement, par le jeu de la responsabilité civile, des dispositions pénales et des règles de protection des données. La jurisprudence, en se prononçant sur de futurs litiges, jouera un rôle déterminant pour préciser la portée de ces règles et combler les éventuelles lacunes. Enfin, au-delà des impératifs purement légaux, l’éthique de l’IA doit constituer un fil conducteur pour garantir une utilisation respectueuse des libertés et de la dignité de chacun.
Les entreprises, les pouvoirs publics et les citoyens ont ainsi la responsabilité partagée de veiller à une IA de confiance, transparente et équitable. L’enjeu est donc de taille : il s’agit non seulement d’accompagner la révolution technologique en cours, mais aussi de veiller à ce que l’IA demeure un instrument au service de l’humain, et non l’inverse. L’avenir de la réglementation française sur l’IA se dessine à l’intersection de la technique, du droit et de la société, nécessitant une collaboration étroite de tous les acteurs pour inventer les solutions juridiques les plus adaptées à ce nouvel âge numérique.
Comments