Kaspersky alerte sur les risques liés à l’utilisation de l’IA en entreprise au Maroc : Ce que les dirigeants doivent savoir
Kaspersky vient de publier une étude sur les risques liés à l’IA dans les entreprises marocaines. Ce n’est pas une alerte de plus à classer.
C’est le signal que le sujet est désormais documenté, nommé, et pris au sérieux par des acteurs de référence en cybersécurité.
Ce que dit vraiment cette étude
Kaspersky identifie trois catégories de risques concrets pour les entreprises qui déploient l’IA sans cadre structuré : les risques de sécurité (fuite de données sensibles via des outils IA non encadrés), les risques éthiques (biais dans les décisions automatisées), et les risques de conformité (utilisation d’outils qui ne respectent pas les exigences locales de protection des données).
Ce qui est frappant, c’est que ces risques ne viennent pas d’une attaque externe sophistiquée. Ils viennent de l’intérieur. Un collaborateur qui colle un contrat client dans ChatGPT pour en faire un résumé. Un outil de recrutement qui filtre les CV avec un modèle entraîné sur des données biaisées. Une direction qui déploie un agent conversationnel sans avoir vérifié où les données sont stockées.
C’est ce qu’on appelle l’IA non encadrée. Et au Maroc, comme ailleurs, elle progresse plus vite que les politiques internes.
La vraie question que personne ne pose en réunion de direction
Vous savez combien d’outils IA sont utilisés en ce moment dans votre organisation sans validation de votre DSI ou de votre DRH ?
Probablement plus que vous ne le pensez.
Ce n’est pas un problème de mauvaise volonté. C’est un problème de vide. Quand il n’y a pas de politique claire, les équipes font avec les outils disponibles. Et les outils disponibles sont souvent gratuits, rapides, et non conformes. L’absence de politique interne est plus dangereuse que l’outil lui-même.
Devoteam Maroc vient justement de s’allier à Inteqy pour déployer une approche d’IA sous contrôle humain dans les grandes entreprises. Ce signal mérite attention : des acteurs du marché marocain commencent à proposer des réponses structurées à ce problème.
J’ai construit un cadre de diagnostic en 6 dimensions pour évaluer l’exposition de votre organisation à ces risques. Téléchargez le Board Pack IA 2026.
Ce que ça change concrètement pour vous
Si vous êtes CEO ou DRH, l’étude Kaspersky vous donne trois obligations pratiques.
Première obligation : cartographier. Vous devez savoir quels outils IA sont utilisés, par qui, sur quelles données. Pas dans six mois. Maintenant.
Deuxième obligation : décider. Soit vous interdisez les outils non validés (ce qui ne fonctionne jamais vraiment), soit vous créez un processus d’homologation rapide qui permet aux équipes d’utiliser des outils approuvés.
Troisième obligation : former. Pas une formation technique. Une formation de culture IA : qu’est-ce qu’une donnée sensible, qu’est-ce qu’un risque de biais, quand faut-il demander validation. Comme je l’expliquais dans mon analyse sur la conduite du changement avec l’IA, la résistance ne vient pas des outils, elle vient de l’absence de cadre.
Ce que je ferais à votre place
Je ne lancerais pas un grand projet de gouvernance de l’IA à 18 mois. Je n’en ai pas le temps et vous non plus.
Je ferais trois choses cette semaine.
Un audit rapide des outils IA utilisés dans l’organisation, même informellement. Une note interne claire sur ce qui est autorisé et ce qui ne l’est pas, en attendant une politique formelle. Et une conversation avec mon DSI et mon DRH sur qui est responsable de quoi quand un incident IA se produit.
Ce dernier point est souvent le plus révélateur. Si personne ne sait répondre à cette question, vous avez votre diagnostic.
Le Maroc avance sur l’IA, comme en témoignent les projets IA structurants lancés en 2026. Mais avancer vite sans garde-fous, c’est prendre des risques que vous n’avez pas choisis de prendre.
Si vous voulez structurer votre approche en quelques semaines plutôt qu’en quelques mois, demandez un diagnostic gratuit.
FAQ
Qu’est-ce que l’IA non encadrée en entreprise ?
C’est l’utilisation d’outils d’intelligence artificielle par des collaborateurs sans validation préalable de la direction, du DSI ou des équipes juridiques. Ces outils peuvent traiter des données sensibles sans que l’entreprise en ait conscience.
Quels sont les principaux risques identifiés par Kaspersky pour les entreprises marocaines ?
L’étude pointe trois catégories : les risques de sécurité liés à la fuite de données, les risques éthiques liés aux biais algorithmiques, et les risques de conformité vis-à-vis des réglementations locales sur la protection des données.
Par où commencer pour encadrer l’IA dans mon organisation ?
Par un audit des usages existants. Avant de construire une politique, il faut savoir ce qui se passe réellement. Ensuite, une note interne claire sur les autorisations, puis une montée en compétences ciblée sur la culture IA.
La gouvernance de l’IA est-elle réservée aux grandes entreprises ?
Non. Un cadre simple et opérationnel est accessible à toute organisation, quelle que soit sa taille. La question n’est pas la taille, c’est la clarté des responsabilités internes.