Iniprof — Documentation légale
Politique d'intelligence artificielle
Cette politique précise quels systèmes d'IA Iniprof utilise, comment ils traitent vos demandes, et quelles sont vos garanties. Elle anticipe les obligations du règlement européen « AI Act » (UE 2024/1689), dont l'article 50 sur la transparence de l'IA générative entrera en application le 2 août 2026.
Dernière mise à jour : 28 avril 2026
Sommaire de cette page
- 01. Notre philosophie
- 02. Modèles d'IA utilisés
- 03. Comment l'IA traite vos demandes
- 04. Vos contenus n'entraînent pas l'IA
- 05. Transparence des contenus IA
- 06. Limites et risques de l'IA
- 07. AI literacy — Article 4 du AI Act
- 08. Aucune décision automatisée critique
- 09. Vos droits face à l'IA
- 10. Évolution V2 et FRIA
- 11. Signalement d'erreur ou d'abus
- 12. Cadre réglementaire
Notre philosophie
Chez Iniprof, l'intelligence artificielle est un copilote, jamais un pilote automatique. Trois principes guident notre usage de l'IA :
- Souveraineté : nous privilégions les modèles européens (Mistral AI, Paris).
- Transparence : vous savez toujours ce qui est généré par IA et ce qui ne l'est pas.
- Contrôle humain : vous validez chaque sortie avant utilisation. L'IA ne décide rien à votre place.
Modèles d'IA utilisés
Iniprof s'appuie sur les modèles d'intelligence artificielle suivants, fournis par l'entreprise française Mistral AI SAS, dont le siège social est à Paris :
Mistral Large 3 (modèle de langage)
- Usage : génération de programmations, séquences, séances, fiches d'exercices, propositions pédagogiques.
- Part des appels : ~90 % du volume.
- Hébergement : France et Union européenne.
Voxtral (modèle de transcription vocale)
- Usage : transcription de la dictée vocale du Cahier Journal Vivant.
- Part des appels : ~10 % du volume, uniquement quand vous activez la dictée.
- Hébergement : France et Union européenne.
Comment l'IA traite vos demandes
Voici exactement ce qui se passe quand vous demandez la génération d'un contenu :
- Vous saisissez ou dictez votre demande dans Iniprof (par exemple : « une séquence de 5 séances sur les fractions, niveau CE2, période 3 »).
- Iniprof complète votre demande avec un contexte pédagogique : référentiel des programmes officiels (BO de l'Éducation nationale), niveau, cycle, vos préférences de format.
- La requête est transmise via API HTTPS chiffrée à Mistral AI SAS, sur leurs serveurs européens.
- Le modèle génère une sortie texte, qui nous est renvoyée immédiatement.
- Iniprof structure cette sortie en document éditable et la stocke dans votre bibliothèque personnelle, sous votre seul contrôle.
- Mistral AI conserve les requêtes pendant un délai limité aux fins de surveillance d'abus, conformément à son DPA Studio Enterprise. Les requêtes sont supprimées à l'issue de cette période.
Aucune donnée personnelle n'est volontairement transmise au modèle dans la version actuelle d'Iniprof. Tant que la fonctionnalité « Gestion classe » n'est pas activée (V2), les requêtes ne contiennent ni nom d'élève, ni INE, ni date de naissance, ni aucun autre élément nominatif d'élève.
Interdiction de saisie de données nominatives d'élèves
Cette posture de conception n'est tenable qu'à une condition : que vous, Utilisateur·rice du Service, ne saisissiez jamais dans les champs clavier, dans la dictée vocale, dans un prompt IA ou dans un document téléversé :
- les noms, prénoms, surnoms identifiants ou initiales d'élèves ;
- les INE, numéros de sécurité sociale, dates de naissance ou toute autre donnée d'identification d'élèves ;
- les données de santé d'élèves (PAI, PAP, PPS, allergies) ;
- les coordonnées des familles, photos ou enregistrements vocaux d'élèves ;
- toute donnée permettant, seule ou par recoupement, d'identifier directement ou indirectement un·e élève donné·e.
Cette interdiction figure dans nos CGU/CGV et engage votre responsabilité contractuelle. Conformément au RGPD, en saisissant de telles données, vous demeureriez seul·e responsable de traitement de ces données dans le cadre de votre mission de service public, et vous garantiriez MBS Média Z contre toute conséquence qui en découlerait.
Garde-fous techniques mis en œuvre
Iniprof s'engage à mettre en œuvre, dans la mesure du possible et conformément à l'état de l'art, des mesures techniques visant à prévenir la transmission accidentelle de telles données au modèle :
- avertissements visibles dans l'interface au-dessus des champs de saisie clavier et de dictée vocale ;
- détection automatique en amont des prénoms, noms et identifiants courants (filtre de motifs côté client) avec blocage ou avertissement de l'envoi ;
- filtrage symétrique sur les transcriptions vocales avant envoi au modèle Mistral ;
- journalisation anonymisée des incidents pour amélioration continue.
Ces garde-fous sont des moyens raisonnables et ne constituent pas une garantie de résultat. Aucun filtre automatique ne peut couvrir l'intégralité des cas de figure : la responsabilité finale du contenu saisi appartient toujours à l'Utilisateur·rice.
Vos contenus n'entraînent pas l'IA
Iniprof a souscrit à l'offre Mistral AI Studio Enterprise, qui garantit contractuellement :
- Aucun entraînement des modèles publics de Mistral à partir de vos requêtes ou de vos contenus ;
- Aucune réutilisation de vos données par Mistral à des fins commerciales tierces ;
- Conservation limitée uniquement à des fins de sécurité (détection d'abus, conformité légale).
Cette garantie est centrale : c'est ce qui distingue notre usage professionnel de Mistral d'un usage grand public via Le Chat ou les APIs publiques standard.
MBS Média Z s'engage aussi à ne jamais utiliser vos contenus pédagogiques pour entraîner un modèle d'IA, qu'il soit interne ou externe.
Transparence des contenus générés par IA
Conformément à l'article 50 du règlement (UE) 2024/1689 (« AI Act »), applicable au 2 août 2026, et au Code of Practice transparence de la Commission européenne (version finale juin 2026) :
- Étiquetage clair : chaque contenu produit par l'IA est identifié comme tel dans votre interface (badge « Généré par IA »).
- Marquage technique : lorsque l'export le permet (PDF/DOCX), une mention discrète signale l'origine IA dans les métadonnées.
- Notice explicative : à votre première utilisation, une information claire vous explique le fonctionnement et les limites de l'IA.
- Sceau « Conforme programmes 2025 » : ce label, apposé sur les documents générés, atteste que la sortie a été contextualisée avec les programmes officiels en vigueur, mais ne dispense pas l'enseignant·e de relire et valider le contenu.
Iniprof envisage l'adhésion volontaire au Code of Practice de la Commission européenne dès sa version finale.
Limites et risques de l'IA
Les principales limites connues des modèles génératifs en 2026, applicables à Iniprof :
- Hallucinations : l'IA peut inventer des faits, des dates, des références bibliographiques inexistantes. Vérifiez systématiquement les sources, en particulier dans les contenus historiques ou scientifiques.
- Décalages avec les programmes officiels : en cas de mise à jour récente du Bulletin Officiel non encore intégrée, certaines compétences peuvent ne pas correspondre exactement.
- Adaptation au niveau de classe : l'IA peut produire des contenus trop ambitieux ou trop faciles. Ajustez-les à la réalité de votre classe.
- Biais : comme tout modèle entraîné sur des données massives, Mistral peut reproduire des biais culturels, de genre ou socio-économiques. Soyez attentif·ve à la diversité et à la neutralité.
- Pas de connaissance individuelle : l'IA ne connaît pas vos élèves. Elle ne peut pas se substituer à votre observation pédagogique.
MBS Média Z décline toute responsabilité quant aux conséquences pédagogiques d'un usage de contenus IA non relus ou non adaptés. Voir CGU/CGV article « Limitation de responsabilité ».
AI literacy — Article 4 du AI Act
L'article 4 du règlement (UE) 2024/1689, en vigueur depuis le 2 février 2025 et supervisé par la Commission européenne à partir du 3 août 2026, exige que les fournisseurs et déployeurs de systèmes d'IA mettent en œuvre des mesures visant à garantir un « niveau suffisant de littératie en matière d'IA » parmi leur personnel et leurs utilisateurs.
Iniprof s'engage à :
- fournir un guide d'usage clair de l'IA au sein du produit (notice à l'activation, info-bulles contextuelles) ;
- publier une documentation pédagogique gratuite sur notre blog (« comment relire une séance générée », « limites pédagogiques de l'IA », « cas d'erreur fréquents ») ;
- former régulièrement son équipe interne et ses partenaires pédagogiques ;
- tenir un registre interne de ces formations.
Aucune décision automatisée critique
Conformément à l'article 22 du RGPD, nous garantissons que :
Iniprof n'effectue aucune décision entièrement automatisée produisant des effets juridiques ou affectant significativement la personne concernée.
L'IA d'Iniprof :
- ne note ni n'évalue automatiquement les élèves ;
- ne classe ni ne hiérarchise les élèves ;
- ne remplit pas le livret scolaire unique sans validation humaine (V2 future) ;
- ne prend aucune décision disciplinaire, scolaire ou administrative ;
- ne profile pas l'utilisateur·rice à des fins commerciales.
L'enseignant·e ou le directeur·rice valide systématiquement chaque sortie avant tout effet pédagogique ou administratif.
Vos droits face à l'IA
En tant qu'utilisateur·rice du service, vous bénéficiez des droits suivants :
- Droit à l'information : savoir qu'un contenu est produit par IA, par quel modèle, dans quel cadre.
- Droit de relecture : chaque contenu généré est entièrement modifiable. Vous n'êtes jamais contraint·e d'accepter une sortie IA.
- Droit de désactivation : vous pouvez désactiver l'assistance IA dans les paramètres et n'utiliser Iniprof que pour la mise en page et le stockage.
- Droit de signalement : vous pouvez signaler une sortie IA problématique via le bouton « Signaler » présent sur chaque document généré.
- Droit à l'effacement : vous pouvez à tout moment supprimer vos contenus générés par IA, conformément à l'article 17 du RGPD.
- Droit à la portabilité : vous pouvez exporter tous vos contenus (générés ou édités) en formats ouverts (JSON, PDF, DOCX, CSV, ICS).
Évolution V2 et analyse d'impact (FRIA)
La version actuelle d'Iniprof n'entre pas dans la classification des « systèmes d'IA à haut risque » au sens de l'Annexe III du AI Act, car elle n'effectue ni évaluation, ni classification, ni recommandation opérationnelle concernant des élèves.
Lorsque la fonctionnalité « Gestion classe et livret scolaire » sera activée (V2), certaines fonctions pourraient relever du haut risque éducatif (Annexe III §3 du AI Act). Avant toute mise en production de la V2, nous nous engageons à réaliser :
- une analyse d'impact relative à la protection des données (AIPD) conforme à l'article 35 du RGPD ;
- une analyse d'impact sur les droits fondamentaux (FRIA) conforme à l'article 27 du AI Act ;
- la mise en place d'un DPO certifié dédié à l'activité éducative ;
- l'adhésion aux référentiels de la CNIL pour la gestion scolaire et au partenariat MEN-CNIL renouvelé en décembre 2025.
Signalement d'erreur, biais ou abus
Si vous identifiez une sortie IA inappropriée — erreur factuelle grave, biais, contenu choquant ou inadapté à un public scolaire — nous vous remercions de nous le signaler :
- en cliquant sur le bouton « Signaler » intégré à chaque document généré ;
- ou par email à contact@iniprof.fr avec mention « Signalement IA » en objet.
Chaque signalement est étudié manuellement. Si l'erreur est confirmée et reproductible, nous ajustons nos prompts et notre filtre de modération. Les retours sérieux et constructifs contribuent à améliorer la qualité du service pour toute la communauté.
Cadre réglementaire
Cette politique s'appuie sur les textes suivants :
- Règlement (UE) 2016/679 — RGPD, notamment articles 13, 22, 35.
- Règlement (UE) 2024/1689 — AI Act, notamment articles 4, 27, 50, 53-55, Annexe III.
- Règlement (UE) 2023/2854 — Data Act, applicable depuis le 12 septembre 2025.
- Code of Practice transparence IA de la Commission européenne (juin 2026).
- Loi n° 78-17 du 6 janvier 1978 modifiée — Informatique et Libertés.
- Doctrine CNIL sur l'intelligence artificielle (recommandations 2023, 2024, 2025).
- Partenariat MEN-CNIL renouvelé en décembre 2025 — référentiel EdTech.
Notre approche évolue en permanence avec la réglementation. Nous tenons un registre interne et révisons cette politique chaque année.