L’intelligence artificielle (IA) illustrée par des applications comme Midjourney , Dall-E ou encore le fameux ChatGPT représente un tournant majeur dans l’évolution technologique mondiale. Si ces applications promettent de révolutionner divers secteurs économiques, sociaux et juridiques, elles soulèvent également des interrogations profondes sur la régulation de cette technologie et sur les droits fondamentaux qu’elle pourrait affecter. En particulier, les questions de la propriété intellectuelle, de l’accès à la justice et de la régulation des intelligences artificielles génératives sont au cœur des préoccupations des législateurs, tant au Maroc qu’en Europe.
L’intelligence artificielle (IA) est sans conteste au cœur des préoccupations juridiques contemporaines, en particulier en matière de régulation. Depuis plusieurs années, elle suscite non seulement un intérêt scientifique et économique, mais aussi une attention accrue de la part des législateurs à l’échelle mondiale. L’Union européenne a été l’une des premières à se saisir de cette question, avec des projets de régulation visant à encadrer l’usage de l’IA dans des domaines aussi variés que la protection des données, la responsabilité civile, et la sécurité. Après plusieurs années de discussions, le droit de l’IA semble aujourd’hui sur le point de se concrétiser.
L’Union Européenne en Pionnière : Le Règlement sur l’Intelligence Artificielle
Le 13 juin 2024, l’Union européenne a adopté son règlement sur l’intelligence artificielle, une avancée législative majeure qui pose les bases d’un encadrement strict des technologies émergentes. La particularité de ce texte réside dans l’intégration d’un contrôle humain obligatoire pour tous les systèmes d’IA, surtout ceux dits « à haut risque ». Il est désormais exigé que des humains soient impliqués dans la surveillance et le fonctionnement de ces technologies pour garantir leur conformité aux normes de sécurité, d’éthique et de respect des droits fondamentaux.
L’essor fulgurant de l’intelligence artificielle générative, illustré par des applications comme ChatGPT, a mis en lumière l’importance de réguler ces technologies en forte croissance. Ce phénomène, qui a révolutionné la manière dont les individus et les entreprises interagissent avec les machines, a également suscité des inquiétudes quant à ses implications éthiques, sociales et juridiques. Face à ce constat, l’Union européenne a pris des mesures législatives pour encadrer l’utilisation de ces systèmes par l’adoption du Règlement sur l’IA (RIA), entré en vigueur le 1er août 2024 et devant être pleinement appliqué à partir du 2 août 2026. Ce règlement aborde de manière détaillée la question des systèmes d’IA à usage général (GPAI) et des modèles GPAI, en introduisant des obligations de transparence et des règles spécifiques pour les fournisseurs de ces technologies.
L’IA générative : un phénomène mondial
Fin 2022, l’émergence de ChatGPT par OpenAI a marqué un tournant dans l’utilisation de l’IA générative. Ce modèle de langage, basé sur la technologie des transformateurs pré-entraînés (GPT), est capable de générer du texte, mais aussi des images, des vidéos et des audios à partir de simples instructions. Ces systèmes reposent sur des modèles d’IA dits « à usage général », capables de réaliser une multitude de tâches, indépendamment du domaine d’application. Leur impact est majeur, notamment dans les secteurs de la création de contenu, du service client, de l’éducation et de la recherche.
Cependant, l’essor de ces technologies a également mis en lumière des risques, notamment en matière de désinformation, de fraude à l’identité et de violation des droits d’auteur. Il est devenu évident qu’une régulation claire était nécessaire pour éviter l’utilisation abusive de ces technologies et garantir leur conformité avec les normes éthiques et juridiques.
Le Règlement sur l’IA (RIA) : un cadre législatif ambitieux
Dans ce contexte, le RIA a été élaboré par l’Union européenne pour encadrer les systèmes d’IA, avec un focus particulier sur les systèmes d’IA à usage général (GPAI) et les modèles GPAI. L’objectif principal du règlement est d’assurer que ces technologies soient transparentes, sûres et respectueuses des droits fondamentaux.
Des obligations de transparence pour les fournisseurs de systèmes GPAI
L’article 50 du RIA impose aux fournisseurs de systèmes GPAI des obligations de transparence spécifiques. Cela inclut la nécessité de marquer clairement les contenus générés ou manipulés par IA, tels que des images, des vidéos ou des textes, comme étant artificiels. Ces systèmes, comme Midjourney ou Dall-E, devront intégrer des techniques robustes et fiables de marquage, comme l’utilisation de filigranes numériques pour les contenus visuels.
Cependant, des zones d’incertitude subsistent. Par exemple, l’article 50 fait référence à des chatbots, comme ChatGPT, qui doivent informer les utilisateurs lorsqu’ils interagissent avec une machine. Mais cette règle soulève des questions pratiques et juridiques, notamment sur l’application spécifique aux systèmes GPAI. De plus, l’étiquetage des contenus créatifs ou artistiques comme étant artificiels pourrait poser des dilemmes, car il est difficile de déterminer quand un contenu est manifestement créatif et exempt des exigences strictes du règlement.
Les règles particulières pour les modèles GPAI
Le règlement distingue également les « modèles GPAI », qui sont des systèmes d’IA pouvant être intégrés dans une variété d’applications et de services. Ces modèles sont définis comme des technologies générales capables de réaliser un large éventail de tâches. Les fournisseurs de ces modèles doivent respecter des règles spécifiques, en particulier en matière de documentation technique et de transparence sur les données utilisées pour l’entraînement des modèles.
Les obligations comprennent la fourniture d’informations sur le contenu d’entraînement, notamment la question des droits d’auteur. Les fournisseurs doivent s’assurer que le contenu utilisé pour entraîner leurs modèles ne viole pas les droits de propriété intellectuelle, sauf exceptions spécifiques prévues par la législation. De plus, des règles spécifiques s’appliquent aux modèles jugés à « risque systémique » en raison de leurs capacités techniques avancées, comme GPT-4 d’OpenAI. Ces modèles sont soumis à des exigences supplémentaires en matière de surveillance, d’évaluation des risques et de cybersécurité.
Des sanctions sévères pour les non-conformités
Le RIA prévoit des sanctions strictes pour les violations de ses dispositions. Les fournisseurs de systèmes GPAI peuvent se voir infliger des amendes administratives allant jusqu’à 15 millions d’euros, ou 3 % de leur chiffre d’affaires mondial annuel. De plus, des amendes peuvent être imposées si un fournisseur ne respecte pas les obligations de transparence ou refuse l’accès de son modèle aux autorités compétentes pour évaluation.
La question des risques systémiques et des données personnelles
L’une des préoccupations majeures du règlement concerne les risques systémiques que certains modèles d’IA pourraient engendrer. Si un modèle présente des capacités extrêmement avancées, pouvant avoir un impact important sur les utilisateurs ou sur la société, il peut être inscrit sur une liste publique des modèles à risque systémique. Cette évaluation prend en compte plusieurs critères, tels que la taille du modèle, le volume de calcul utilisé pour son entraînement, ainsi que le nombre d’utilisateurs qu’il touche.
Une autre question qui reste sous-explorée dans le règlement est celle de la protection des données personnelles. Étant donné que les modèles GPAI sont souvent formés à partir de vastes quantités de données récoltées sur internet (notamment par web crawling), la question de l’utilisation de données sensibles, personnelles ou non autorisées reste un point de vigilance.
Pourquoi le Contrôle Humain est-il Nécessaire ?
L’une des raisons majeures pour lesquelles la réglementation sur l’IA impose un contrôle humain réside dans l’autonomie de ces systèmes. L’IA, par définition, fonctionne sans intervention humaine immédiate, ce qui peut entraîner des dysfonctionnements graves si des mécanismes de supervision ne sont pas en place. L’absence de clarté sur le fonctionnement interne des systèmes d’IA crée également un climat de méfiance. C’est pourquoi la législation impose une forme de garantie humaine pour assurer un minimum de transparence et de responsabilité.
L’objectif est de prévenir une “déshumanisation” des activités humaines, en maintenant un contrôle humain qui peut être plus ou moins fort en fonction des risques associés aux applications de l’IA. Pour ce faire, les législations actuelles se concentrent sur trois types de figures de « garants humains » : le responsable, l’interlocuteur, et l’observateur.
- Le Responsable : L’intelligence artificielle, par sa complexité et son autonomie, présente un besoin pressant d’un responsable clair, capable d’assumer les risques associés à son utilisation. Cette fonction de responsabilité se décline en deux niveaux :
- Responsabilité ex ante : Elle impose aux concepteurs de l’IA et aux opérateurs de prendre toutes les précautions nécessaires en amont pour éviter les risques. Cela comprend des mesures telles que l’encadrement des jeux de données, la régulation by design, et l’adoption de normes éthiques strictes lors de la conception des systèmes.
- Responsabilité ex post : En cas de dommage, la responsabilité doit être clairement attribuée. Les victimes doivent savoir à qui s’adresser en cas de dysfonctionnement ou de préjudice causé par un système d’IA. Le règlement européen de juin 2024 s’attaque à cette problématique en détaillant la responsabilité des concepteurs, des fournisseurs, et des déployeurs de l’IA.
La clé ici réside dans l’identification des acteurs responsables. Le législateur doit déterminer qui, parmi l’ensemble des intervenants dans la chaîne de création et d’utilisation de l’IA, doit répondre des risques et des dommages liés à son utilisation. En Europe, cette responsabilité est ventilée entre les concepteurs des algorithmes et les utilisateurs finaux, ce qui permet une répartition plus claire des obligations.
- L’Interlocuteur : L’autonomie de l’IA entraîne une dématérialisation des relations, ce qui peut avoir pour effet de rendre les utilisateurs incapables d’interagir directement avec un interlocuteur humain. Cela pose des risques de discrimination ou de biais, et nuit à la transparence des décisions prises par ces systèmes. La solution envisagée par les régulations européennes et internationales est de garantir la présence d’un interlocuteur humain dans certaines situations :
- Intervention minimale : Dans certains cas, un interlocuteur humain doit être disponible pour contrôler le fonctionnement de l’IA et intervenir en cas de dysfonctionnement, mais sans interférer systématiquement dans le processus décisionnel de l’IA.
- Intervention maximale : Dans des situations où la décision de l’IA peut avoir un impact direct sur la vie de l’individu (par exemple, un diagnostic médical ou une décision judiciaire), un interlocuteur humain pourrait être chargé de prendre la décision finale, excluant ainsi l’IA de ce processus.
Le choix de l’interlocuteur est une question clé. Le règlement européen impose aux déployeurs de désigner une personne physique disposant des compétences et de l’autorité nécessaires pour intervenir sur le système d’IA. Par ailleurs, la possibilité pour l’utilisateur de refuser une décision entièrement automatisée (par exemple, via un système de « opt-out ») constitue une des propositions les plus novatrices en matière de régulation.
- L’Observateur : Le rôle de l’observateur est de s’assurer que le contrôle humain fonctionne effectivement et conformément aux exigences légales. Ce garant extérieur doit vérifier que les responsables et interlocuteurs remplissent leurs obligations, et intervenir lorsque des irrégularités sont constatées. En ce sens, l’observateur peut être une autorité indépendante ayant le pouvoir d’enquêter, de vérifier la conformité et de sanctionner les comportements illicites.
L’UE a prévu la création d’un Bureau de l’Intelligence Artificielle pour superviser et coordonner les régulations nationales. Au Maroc, des institutions telles que la Commission Nationale de Protection des Données à Caractère Personnel (CNDP) pourraient voir leur rôle renforcé, notamment pour veiller à la conformité des applications d’IA avec les droits fondamentaux et la protection des données.
La Régulation des IA au Maroc : Entre Opportunité et Défis
Au Maroc, la question de la régulation de l’IA est en pleine émergence. Le pays a déjà posé des bases solides pour encadrer la transformation numérique à travers des initiatives telles que la stratégie Maroc Numérique 2030 ainsi que des propositions de lois dont la dernière a été présenté lors d’une audience publique par des membres du parti d’opposition Haraki, mettant en lumière les enjeux majeurs de cette technologie et les risques associés
Ce texte, qui se compose de 17 articles, a été présenté lors d’une audience publique par des membres du parti d’opposition Haraki, mettant en lumière les enjeux majeurs de cette technologie et les risques associés.
Le projet de loi en préparation vise à garantir une utilisation éthique de l’IA, tout en protégeant les citoyens contre ses risques. Ce projet s’inspire largement des régulations européennes, tout en intégrant des spécificités adaptées aux réalités marocaines. Le Maroc met en place un cadre législatif qui garantira non seulement la sécurité des données personnelles, mais aussi le respect de l’éthique dans l’utilisation des technologies émergentes.
Ainsi, bien que la régulation de l’IA au Maroc soit encore en phase de construction, le pays semble résolument engagé dans une démarche proactive visant à prévenir les abus et à maximiser les bénéfices de cette révolution numérique.
L’intelligence artificielle dans le domaine de la propriété intellectuelle : Innovation ou confusion des droits ?
Le développement de l’intelligence artificielle a des implications profondes sur la propriété intellectuelle, en particulier en ce qui concerne la création d’œuvres générées par des machines. Traditionnellement, les œuvres protégées par le droit d’auteur doivent être le fruit de l’activité créative d’un auteur humain. Cependant, avec l’émergence des IA génératives, capables de produire des œuvres artistiques, musicales ou littéraires, une nouvelle problématique émerge : qui détient les droits sur ces œuvres ? L’outil, conçu par l’homme, ou la machine qui exécute les instructions ?
À ce jour, les législations internationales, notamment la Convention de Berne pour la protection des œuvres littéraires et artistiques, n’ont pas pris en compte les créations générées par des machines. Aux États-Unis, par exemple, l’Office of Copyright a déjà tranché en indiquant que seules les créations humaines peuvent être protégées par le droit d’auteur, laissant ainsi de côté les créations autonomes de l’IA. En Europe, la question reste en suspens, bien que certains juristes préconisent une extension des droits d’auteur ou la création d’un nouveau type de protection pour ces œuvres générées par IA.
Les législateurs marocains, dans le cadre de l’élaboration de leur propre législation numérique, devront faire face à cette question centrale : comment intégrer les créations générées par IA dans un système juridique qui, historiquement, est fondé sur l’idée de l’auteur humain ?
L’intelligence artificielle représente une révolution technologique qui doit être encadrée de manière rigoureuse. Que ce soit dans le domaine de la propriété intellectuelle, de l’accès à la justice ou des intelligences artificielles génératives, les enjeux sont multiples et nécessitent des réponses législatives adaptées, tant au Maroc qu’en Europe.
Les législateurs marocains et européens devront conjuguer innovation et prudence, en élaborant des régulations qui favorisent l’exploitation des potentiels de l’IA tout en préservant les droits fondamentaux des citoyens, notamment en matière de confidentialité, de transparence et d’équité. L’avenir de l’IA dans nos sociétés dépendra en grande partie de la capacité des législateurs à anticiper les dérives possibles tout en maximisant les bénéfices de ces technologies pour tous.
Sources :
- Commission Européenne, “AI Act: Artificial Intelligence Regulation,” 2021.
- UNESCO, “Recommandations sur l’Éthique de l’Intelligence Artificielle,” 2022.
- CNDP, “Rapport annuel sur la Protection des Données Personnelles,” 2024.
- Conseil Économique, Social et Environnemental, “Avis sur l’Intelligence Artificielle et ses Défis,” 2025.
- Revue Dalloz IP 2024
Westfield Morocco est une société de conseil juridique et fiscal implantée à Rabat spécialisée dans l’accompagnement des sociétés marocaines dans leurs opérations de croissance interne (création de filiale, société communes) ou externe (acquisition, fusions), leurs opérations régulières en droit des contrats, ou droit des sociétés et leurs projets de mise en conformité (CNDP, RGPD) ainsi que leurs contentieux internationaux ou arbitrages.

Wassim Benzarti est avocat au barreau de Paris et dirige la société Westfield Morocco, société spécialisée en conseil juridique et fiscal
“J’interviens essentiellement auprès des sociétés pour leur permettre de passer un cap : soit en se restructurant pour être plus efficientes, soit en s’internationalisant en s’implantant à l’étranger, soit en ouvrant leur capital à de nouveaux investisseurs ou dans des opérations de croissance externe via des acquisitions ou des fusions”

Aya est une juriste d’affaire parfaitement trilingue, titulaire d’un Master en Droit des Affaires Parcours Juriste d’affaires de l’Université Mundiapolis et de l’Université Côte d’Azur.
Avec un parcours académique d’excellence et un penchant marqué pour la recherche, Aya a pu acquérir une expérience significative dans les domaines des fusions-acquisitions, de la protection des données personnelles, du droit des sociétés, de la propriété industrielle, du droit de la distribution et du droit de la concurrence.