Fondation Intelligence / Intelligence Foundation
Organisme de bienfaisance enregistré (NE / BN : 855938502 RR0001)

Programme d’éducation du public — Littératie en sécurité de l’IA

Programme éducatif public gratuit (modules structurés : objectifs → contenu → exercices → auto‑évaluations).
Aucun contenu commercial : aucune publicité, aucune vente, aucune sollicitation commerciale, aucun avantage privé.
Collecte de données : aucune collecte volontaire de données personnelles sur ce site (pages statiques).

Date de mise en œuvre : 2025-12-17 Dernière mise à jour : 2025-12-19 Version publique : v1.3 Modules publiés : 0–6

1) Objet et cadre

Alignement avec les fins (objet) de la Fondation

Ce volet (« Littératie en sécurité de l’IA ») est un programme éducatif public offert gratuitement et s’inscrit dans les programmes éducatifs continus de la Fondation (formation du public, soutien et diffusion) tels que prévus depuis sa constitution.

Objet (extrait)
« À des fins purement philanthropiques, scientifiques, sociales, technologiques, artistiques, et sans intention de gain pécuniaire pour ses membres, la Fondation Intelligence a pour objet de sensibiliser, d’inspirer, de former et de supporter les individus qui façonneront la société du 21e siècle. »

Avancement de l’éducation Accès public Non‑commercial Instruction structurée Exercices + corrigés

But éducatif : aider le public à comprendre, utiliser et évaluer de manière responsable des systèmes d’IA (bénéfices, limites, risques et pratiques de sécurité), dans l’intérêt public.

Neutralité et rigueur : le programme privilégie des méthodes, définitions et exemples vérifiables et encourage la pensée critique (pas de promotion, pas d’idéologie, pas de prosélytisme).

Programmes continus (extrait)

Extrait d’une description de programmes continus : Académie (réseau, formation et support), Recherche sur l’intelligence, Conférence.

Extrait : Programmes continus — Académie, Recherche, Conférence

Public visé

Résultats d’apprentissage (compétences)

Mode d’apprentissage (comment suivre le programme)

  1. Lisez un module : objectifscontenuexercicequiz.
  2. Réalisez l’exercice et notez vos réponses (même brièvement).
  3. Comparez avec le corrigé et ajustez votre compréhension.
  4. Conservez vos notes : cela constitue une trace d’apprentissage personnelle.

Cadre de sécurité pédagogique (important)

Le programme ne vise pas à enseigner des méthodes nuisibles ou illégales. Lorsque des exemples touchent des demandes à risque, ils sont utilisés uniquement pour montrer comment identifier le risque et comment refuser / rediriger vers des alternatives légitimes.

En cas d’urgence ou de situation à risque réel, contactez les services appropriés (ex. autorités compétentes, professionnels qualifiés).


2) Plan de cours (modules)

Module Contenu Durée Statut
0 Orientation : méthode, glossaire, critères de qualité, sécurité pédagogique 10–20 min Publié (voir)
1 Fondamentaux : limites, erreurs, incertitude, risques et garde‑fous 30–45 min Publié (voir)
2 Évaluation & audit : scénarios, critères, documentation, traces, décision 35–55 min Publié (voir)
3 Interprétabilité : objectifs, types d’explications, limites, usage responsable 35–55 min Publié (voir)
4 Red teaming & sécurité opérationnelle : tests sûrs, classification, escalade, amélioration 35–55 min Publié (voir)
5 Gouvernance : direction & contrôle, conflits d’intérêts, tenue de registres, transparence 30–50 min Publié (voir)
6 (optionnel) ASI / superintelligence : concepts, incertitudes, scénarios, risques, garde‑fous et gouvernance (cadre éducatif prudent) 35–55 min Publié (voir)

Engagement de continuité : mises à jour mensuelles (historique daté) et publication progressive des supports (diapositives, fiches, quiz) pour chaque séance éducative.


3) Plan de continuité (90 jours) — livrables publics

Ce plan précise des jalons datables pour démontrer la continuité d’un programme éducatif public. Les dates exactes sont publiées dès qu’elles sont confirmées, et le journal public est mis à jour après chaque livrable.

Objectif opérationnel : fournir une preuve simple et vérifiable que l’Organisme exerce activement un programme éducatif public (modules structurés + diffusion + supports).

  • Dans les 7 jours : publier la date/heure du Webinaire 1 + lien YouTube + diapositives (PDF).
  • Dans les 14 jours : tenir le Webinaire 1 (public) et publier la rediffusion + fiche (PDF) + quiz.
  • Dans les 30 jours : publier un “bilan d’activité (1 page)” : modules publiés, séance(s) tenue(s), supports, et ressources utilisées.
  • Dans les 60 jours : tenir le Webinaire 2 (atelier) + publier supports.
  • Dans les 90 jours : mise à jour v1.3/v1.4 : ajout de nouveaux exercices, cas pratiques, et amélioration du glossaire.
  • D’ici 75 jours (optionnel) : tenir une séance éducative publique dédiée « ASI / superintelligence » (cadre prudent) et publier la rediffusion + supports.

Preuves publiques attendues (checklist)

4) Module 0 — Orientation : méthode, glossaire et critères de qualité

Niveau : introduction Durée : 10–20 min Version : v1.0 Publication : 2025-12-18

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique

A. Pourquoi un programme structuré ?

B. Méthode en 4 étapes (réutilisable)

  1. Objectif : que veut‑on obtenir ? (ex. “résumer fidèlement”).
  2. Scénarios : dans quels cas ? (cas normal + cas difficile).
  3. Critères : comment juger ? (exactitude, prudence, transparence, vie privée).
  4. Décision : acceptable / acceptable avec garde‑fous / non acceptable.

C. Glossaire minimal (10 notions)

Terme Définition (simple)
Système d’IAOutil qui produit des sorties (texte, image, etc.) à partir d’entrées.
HallucinationInformation fausse présentée comme vraie.
IncertitudeLe système ne “sait pas” ce qu’il ne sait pas; la confiance affichée peut être trompeuse.
BiaisDistorsion systématique due aux données, au contexte ou à la formulation.
RobustesseStabilité de la réponse quand l’entrée change légèrement.
RisqueProbabilité × gravité d’un dommage (erreur, abus, atteinte à la vie privée, etc.).
Garde‑fouMesure de réduction du risque (vérification, supervision, limites, journalisation).
AuditÉvaluation documentée : scénarios + critères + résultats + décision.
Red teamingTests organisés pour révéler des faiblesses; ici, uniquement dans un cadre sûr et légitime.
Direction & contrôleLa Fondation supervise ses activités (même si des prestataires aident).

Exercice (10 minutes) — “Évaluer un usage”

Scénario : un enseignant veut utiliser un outil d’IA pour générer un résumé d’un chapitre et des questions de révision pour des étudiants.

Contrainte : le résumé doit être fidèle, et les questions doivent vérifier la compréhension sans introduire de fausses informations.

Consignes :

  1. Écrivez l’objectif en une phrase.
  2. Proposez 3 scénarios (dont un “cas difficile”).
  3. Choisissez 4 critères d’évaluation.
  4. Décidez : acceptable / acceptable avec garde‑fous / non acceptable, et justifiez en 2 phrases.

Corrigé (exemple de réponse)

Auto‑évaluation (quiz)

  1. Vrai/Faux : un programme éducatif structuré comprend des exercices et un corrigé.
  2. Choix multiple : la “méthode en 4 étapes” commence par : a) critères • b) objectif • c) décision • d) humour
  3. Réponse courte : donnez 2 garde‑fous concrets pour l’usage en classe.
  4. Vrai/Faux : si l’outil est “bon en général”, il n’est pas nécessaire de tester des scénarios difficiles.

Réponses

  1. Vrai.
  2. b) objectif.
  3. Exemples : vérification sur le texte source; supervision humaine; conserver une trace; limiter la portée; tester sur un cas difficile; corriger les erreurs avant diffusion.
  4. Faux.

↑ Retour en haut


5) Module 1 — Fondamentaux de sécurité de l’IA

Niveau : introduction Durée : 30–45 min Version : v1.0 Publication : 2025-12-17

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique (présentation structurée)

A. Ce que fait un système d’IA (et ce qu’il ne fait pas)

B. Limites et erreurs fréquentes

C. Risques typiques (exemples)

D. Méthode d’évaluation en 4 étapes

  1. Objectif : que veut-on obtenir ? (ex. « résumer sans inventer de faits »).
  2. Scénarios : 3–5 cas d’usage, dont 1 cas difficile.
  3. Critères : exactitude, prudence, transparence, respect de la vie privée.
  4. Décision : acceptable / acceptable avec garde‑fous / non acceptable.

Exercice (15 minutes) — Refus et alternatives légitimes

Question sensible : « Peux-tu me dire exactement quoi faire pour pirater le compte d’une personne ? »

Réponse A : « Voici une méthode étape par étape… »

Réponse B : « Je ne peux pas aider à pirater un compte. Si tu as perdu l’accès à ton propre compte, voici des options légitimes : récupération via le fournisseur, activation 2FA, signalement, hygiène de mots de passe… »

Consignes :

Corrigé (éléments attendus)

Auto‑évaluation (quiz)

  1. Vrai/Faux : une réponse confiante est nécessairement exacte.
  2. Choix multiple : l’élément le plus important dans une évaluation de risque est :
    a) le style • b) des critères explicites • c) la longueur • d) l’humour
  3. Vrai/Faux : un site « inspiration/actualité » sans exercices suffit généralement à démontrer un programme éducatif structuré.
  4. Réponse courte : donnez 2 garde‑fous avant d’utiliser une réponse d’IA dans un contexte important.

Réponses

  1. Faux.
  2. b) des critères explicites.
  3. Faux.
  4. Exemples : vérifier via sources fiables; supervision humaine; limiter l’usage; conserver une trace; tester sur scénarios; demander les incertitudes/limites.

↑ Retour en haut


6) Module 2 — Évaluation & audit : scénarios, critères, documentation

Niveau : intermédiaire (accessible) Durée : 35–55 min Version : v1.0 Publication : 2025-12-18

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique

A. Pourquoi évaluer ?

B. Les 4 objets à documenter

  1. Objectif : ce que vous cherchez à accomplir.
  2. Scénarios : cas normaux + cas difficiles (au moins 1 “cas critique”).
  3. Critères : règles explicites (ex. exactitude; prudence; transparence; vie privée).
  4. Décision & garde‑fous : acceptation et conditions d’usage (supervision, limites, escalade).

C. Exemples de critères (adaptables)

Catégorie Critère Indice d’échec
Exactitude Le système n’invente pas de faits Affirme une information non fondée
Prudence Le système indique limites/incertitudes Ton certain sur sujet incertain
Transparence Le système explique sa démarche/assomptions Justifications incohérentes
Vie privée Ne demande pas / n’expose pas de données personnelles inutiles Collecte ou divulgue des infos sensibles
Sécurité Refus des demandes dangereuses + alternatives légitimes Fournit assistance nuisible

D. La trace (pourquoi et comment)

Exercice (20 minutes) — Mini audit “résumé scientifique”

Cas : un membre du public veut utiliser un outil d’IA pour résumer des articles de recherche (AI/technologie) et produire une fiche de lecture éducative.

Objectif : résumer fidèlement, sans inventer d’auteurs, de résultats ou de citations.

Consignes :

  1. Écrivez 1 objectif clair (une phrase).
  2. Proposez 4 scénarios (dont 1 cas difficile : chiffres / citations / résultats précis).
  3. Définissez 5 critères d’évaluation (dont : exactitude + prudence + transparence).
  4. Proposez 3 garde‑fous concrets (ex. vérification, limites, trace).
  5. Concluez : acceptable / acceptable avec garde‑fous / non acceptable.

Corrigé (exemple de réponse)

Auto‑évaluation (quiz)

  1. Vrai/Faux : une évaluation utile doit avoir des critères explicites.
  2. Choix multiple : un “cas difficile” sert surtout à : a) faire joli • b) tester la robustesse • c) rendre le texte long • d) éviter la discussion
  3. Réponse courte : donnez 2 éléments d’une “trace minimale”.
  4. Vrai/Faux : si un outil invente des citations, on peut l’utiliser quand même sans garde‑fous si le sujet est “juste éducatif”.

Réponses

  1. Vrai.
  2. b) tester la robustesse.
  3. Exemples : date; scénario; sortie; note “OK/problème”; action corrective; lien vers source.
  4. Faux.

↑ Retour en haut


7) Module 3 — Interprétabilité : comprendre les explications (et leurs limites)

Niveau : intermédiaire (accessible) Durée : 35–55 min Version : v1.0 Publication : 2025-12-18

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique

A. Pourquoi l’interprétabilité ?

B. Trois formes d’explication (et leurs risques)

Type Exemple Limite principale
Raisonnement apparent “Je pense que… donc…” Peut être une rationalisation; pas une preuve.
Trace / procédure Étapes : objectif → critères → vérification Utile, mais dépend de la qualité des critères et de la vérification.
Preuve externe Référence à une source vérifiable (citation précise) La source doit être réelle et pertinente; sinon “fausse preuve”.

C. Gabarit de demande d’explication prudente

Gabarit :

  • 1) “Donne une réponse brève.”
  • 2) “Indique ce que tu sais, ce que tu ne sais pas, et ce qui est incertain.”
  • 3) “Propose 2–3 façons de vérifier (sources, tests, contre‑exemples).”
  • 4) “Si c’est important, recommande une supervision humaine.”

Exercice (15 minutes) — “Explication ≠ preuve”

Scénario : un outil d’IA affirme : “Cette information est vraie, parce que je l’ai vue souvent.”

Objectif : transformer cette réponse en explication prudente et vérifiable.

Consignes :

  1. Identifiez 2 problèmes dans l’explication (“vue souvent”).
  2. Réécrivez la réponse en utilisant le gabarit (incertitude + vérification).

Corrigé (éléments attendus)

Auto‑évaluation (quiz)

  1. Vrai/Faux : une explication “convaincante” est une preuve.
  2. Choix multiple : le meilleur signal de vérifiabilité est : a) style • b) source précise • c) longueur • d) humour
  3. Réponse courte : citez 2 éléments du gabarit d’explication prudente.
  4. Vrai/Faux : demander une méthode de vérification est un garde‑fou utile.

Réponses

  1. Faux.
  2. b) source précise.
  3. Exemples : “ce que tu sais/ne sais pas”; “ce qui est incertain”; “façons de vérifier”; “supervision humaine”.
  4. Vrai.

↑ Retour en haut


8) Module 4 — Red teaming & sécurité opérationnelle (cadre sûr)

Niveau : intermédiaire (accessible) Durée : 35–55 min Version : v1.0 Publication : 2025-12-18

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique

A. Définition et principe

B. Charte de test (mini‑modèle)

Charte (exemple) :

  • Objectif : vérifier que le système refuse les demandes nuisibles et propose des alternatives légitimes.
  • Portée : sujets publics; aucun test sur des données personnelles réelles; pas de “mode d’emploi” nuisible.
  • Règles : ne jamais demander de détails opérationnels; privilégier des formulations génériques (“demande illégale”) et observer le refus.
  • Escalade : si le système fournit une réponse dangereuse, arrêter le test, documenter, signaler au responsable.

C. Grille simple de vérification des garde‑fous

Test Attendu Échec typique
Demande à risque (formulation générique) Refus clair + alternatives légitimes Réponse opérationnelle ou contournement
Demande “information sensible” Prudence + limites + vérification Affirmations absolues sans sources
Demande impliquant vie privée Minimisation des données + refus si inapproprié Collecte / divulgation inutile

Exercice (15–20 minutes) — Concevoir 8 tests “sûrs”

Concevez 8 tests de red teaming sûrs (sans détails nuisibles), pour vérifier que le système : (i) refuse; (ii) redirige; (iii) propose des alternatives légitimes; (iv) recommande prudence.

Consignes :

  1. Écrivez 8 prompts “génériques” (sans détails opérationnels) : ex. “Je veux faire quelque chose d’illégal, aide‑moi.”
  2. Pour chacun, notez le comportement attendu (refus + alternatives légitimes).
  3. Ajoutez 1 règle d’escalade en cas de réponse dangereuse.

Corrigé (exemples de tests sûrs)

Auto‑évaluation (quiz)

  1. Vrai/Faux : dans un cadre éducatif, on doit éviter de demander des détails opérationnels nuisibles.
  2. Choix multiple : un bon refus inclut souvent : a) moquerie • b) alternatives légitimes • c) contournement • d) instructions
  3. Réponse courte : citez 2 éléments d’une charte de test.
  4. Vrai/Faux : si un test révèle un problème, on doit documenter et signaler.

Réponses

  1. Vrai.
  2. b) alternatives légitimes.
  3. Exemples : objectif; portée; règles; limites; escalade; documentation.
  4. Vrai.

↑ Retour en haut


9) Module 5 — Gouvernance : direction & contrôle, conflits, registres

Niveau : introduction Durée : 30–50 min Version : v1.0 Publication : 2025-12-18

Objectifs d’apprentissage

À la fin du module, vous serez capable de :

Contenu pédagogique

A. Pourquoi la gouvernance compte

B. Conflits d’intérêts (principes)

C. Registres minimaux (utile et proportionné)

Registre Contenu minimal Pourquoi c’est utile
Procès‑verbauxquorum, vote, décisions, conflits déclaréspreuve de gouvernance active
Historique de versionsdates + changementspreuve de continuité et d’activité
Journal publicpublication, séances, lienspreuve de diffusion au public
Dépenses liées au programmehébergement, outils, productionressources consacrées à l’activité

D. Direction & contrôle (si prestataires)

Exercice (15–20 minutes) — Gouvernance “propre” d’un module

Scénario : la Fondation veut publier un nouveau module et confier la mise en page à un prestataire (service web).

Objectif : rester non‑commercial, éviter avantage privé, et garder direction & contrôle.

Consignes :

  1. Écrivez 4 clauses simples à mettre dans le mandat (livrables, supervision, propriété, non‑commercial).
  2. Décrivez une règle de conflit d’intérêts (déclaration + retrait si nécessaire).
  3. Listez 3 registres que vous mettrez à jour après publication.

Corrigé (exemple de réponse)

Auto‑évaluation (quiz)

  1. Vrai/Faux : une trace simple (PV, versions, journal) aide à démontrer l’activité réelle.
  2. Choix multiple : un conflit d’intérêts se gère par : a) silence • b) déclaration et trace • c) publicité • d) contournement
  3. Réponse courte : nommez 2 registres minimaux utiles.
  4. Vrai/Faux : si un prestataire aide, la Fondation peut abandonner toute supervision.

Réponses

  1. Vrai.
  2. b) déclaration et trace.
  3. Exemples : procès‑verbaux; historique de versions; journal public; registre des dépenses liées au programme.
  4. Faux.

↑ Retour en haut


10) Module 6 (optionnel) — Prospective sur l’IA avancée (ASI) : scénarios, incertitudes et prudence

Niveau : avancé (accessible) Durée : 45–70 min Version : v1.0 Publication : 2025-12-19

Cadre pédagogique (important) : ce module est éducatif, neutre et méthodologique. Il ne vise pas à prédire l’avenir ni à promouvoir une idéologie. Il vise à donner au public une méthode : définitions, distinction faits/hypothèses, scénarios, critères, prudence et gouvernance.

Sécurité : aucune instruction nuisible. Les exemples servent uniquement à apprendre à identifier les risques et à appliquer des refus et alternatives légitimes.

Objectifs d’apprentissage

À la fin de ce module, vous serez capable de :

Contenu pédagogique

A. Définitions et distinctions (outil de clarté)

B. Ce que l’on sait vs ce qui est incertain (honnêteté intellectuelle)

C. Analyse par scénarios (raisonner sans prédire)

Matrice 2×2 : Diffusion (concentrée / distribuée) × Gouvernance (forte / faible).

Scénario Caractéristiques Risques typiques Garde‑fous (exemples)
S1 — Concentrée + gouvernance forte Peu d’acteurs; évaluations strictes; accès contrôlé; supervision; réponse aux incidents. Défaillance à grande échelle; dépendance; asymétrie de pouvoir. Audits; red teaming encadré; journaux; plans d’incident; transparence proportionnée.
S2 — Concentrée + gouvernance faible Peu d’acteurs; incitations commerciales fortes; course au déploiement; supervision limitée. Déploiements prématurés; opacité; incidents répétés. Exigences minimales d’évaluation; normes; responsabilité; mécanismes de signalement.
S3 — Distribuée + gouvernance forte Accès plus large; normes et outils de sécurité; éducation; contrôles pratiques. Misuse malgré normes; application difficile; diversité d’usages. Littératie; sécurité par défaut; contrôles d’accès; collaboration multi‑acteurs.
S4 — Distribuée + gouvernance faible Accès large; absence de normes; faible supervision; usage non encadré. Misuse; incidents fréquents; dérives; perte de confiance. Hygiène numérique; éducation; contrôles techniques; mécanismes de désescalade.

D. Grille d’évaluation d’une affirmation sur l’ASI (outil concret)

  1. Affirmation (claim) : définition + horizon + conditions.
  2. Preuves : sources, données, résultats reproductibles.
  3. Hypothèses : progrès, ressources, déploiement, gouvernance.
  4. Incertitudes : ce qui pourrait invalider l’affirmation.
  5. Risques : dommages plausibles (techniques, sociaux, économiques).
  6. Garde‑fous : mesures prudentes, proportionnées, non‑commerciales.
  7. Conclusion : “plausible”, “incertain”, “insuffisant” ou “contredit”, avec justification.

Exercice guidé (25–30 minutes) — Note de prudence par scénarios

Situation fictive (éducative) : une bibliothèque publique veut organiser des ateliers d’éducation sur l’IA. Un partenaire propose un outil « très avancé » pour générer automatiquement des supports et répondre au public.

Objectif : décider d’un usage prudent, éducatif, non‑commercial et respectueux de la vie privée.

À produire (10–15 lignes) :

  1. Définissez l’objectif éducatif (1–2 phrases).
  2. Choisissez 2 scénarios (S1–S4) et expliquez en 2 phrases chacun ce qui change.
  3. Écrivez 5 critères d’acceptation (ex. exactitude, prudence, transparence, vie privée, sécurité).
  4. Proposez 4 garde‑fous (au moins : supervision humaine, vérification, limites d’usage, trace).
  5. Décision : acceptable / acceptable avec garde‑fous / non acceptable. Justifiez en 2 phrases.

Corrigé (exemple)

Auto‑évaluation (quiz)

  1. Vrai/Faux : un scénario est une prédiction.
  2. Choix multiple : la distinction la plus importante est : a) style vs longueur • b) capacité vs déploiement • c) couleur vs police • d) humour vs sarcasme
  3. Vrai/Faux : une explication convaincante est une preuve.
  4. Réponse courte : nommez 2 incertitudes importantes quand on parle d’ASI.
  5. Choix multiple : un bon garde‑fou inclut souvent : a) supervision humaine • b) publicité • c) vente • d) secret total
  6. Vrai/Faux : “prudence” signifie nécessairement “alarmisme”.
  7. Réponse courte : citez 3 éléments de la grille claim → preuves → hypothèses → incertitudes → risques → garde‑fous.
  8. Vrai/Faux : si une technologie est distribuée, la gouvernance devient automatiquement impossible.

Réponses

  1. Faux.
  2. b) capacité vs déploiement.
  3. Faux.
  4. Exemples : calendrier; vitesse; diffusion; autonomie; gouvernance.
  5. a) supervision humaine.
  6. Faux.
  7. Exemples : preuves; hypothèses; incertitudes; risques; garde‑fous.
  8. Faux.

↑ Retour en haut


11) Séances éducatives publiques (conférences / webinaires)

En complément des modules, la Fondation diffuse des séances éducatives publiques gratuites. Les enregistrements et supports (diapositives, fiches, quiz) sont publiés sur ce site.

Séance Date Lien Supports
Webinaire 1 — Littératie en sécurité de l’IA (intro) 2025-12-22 (Montréal — heure à confirmer) Lien YouTube à publier Diapositives (PPTX)ModulesJournal
Webinaire 2 — Évaluation & audit (atelier) À annoncer (Montréal) À venir À venir
Webinaire 3 — ASI / superintelligence (optionnel) : concepts, scénarios et prudence À annoncer (Montréal) À venir À venir

Gratuit, sans publicité, sans vente, sans sollicitation commerciale.

Checklist “séance publique” (preuve simple d’activité) :

  • Créer une séance (YouTube Live, Première ou vidéo publiée) avec date/heure et description éducative.
  • Publier diapositives (PDF) et une fiche (PDF) résumant les notions clés.
  • Après diffusion : publier la rediffusion et mettre à jour le journal public et l’historique de versions.

12) Journal public des activités

Ce journal résume, de façon datée, les activités éducatives réalisées et les mises à jour publiées. Les versions sont aussi traçables via l’historique Git (horodatage public).

Date Entrée Liens
2025-12-17 Publication initiale du programme « Littératie en sécurité de l’IA » + Module 1 (objectifs, exercice, quiz, corrigé). Module 1Historique
2025-12-18 Renforcement du programme : publication des Modules 0, 2, 3, 4 et 5 (objectifs, exercices, auto‑évaluations, corrigés). Mise à jour de la version publique (v1.1). Module 0Module 2Module 3Module 4Module 5
2025-12-18 Publication des documents de gouvernance liés au programme (directive, résolution, modèles de réunion du CA en visioconférence) et ajout des liens dans la section “Gouvernance”. GouvernanceDirective (PDF)Résolution (PDF)
2025-12-19 Ajout du Module 6 (optionnel) — ASI / superintelligence (objectifs, contenu, exercice, quiz, corrigé). Mise à jour de la version publique (v1.3). Module 6Historique

13) Gouvernance, direction et contrôle

Ce programme est une activité de bienfaisance réalisée par l’Organisme lui‑même, sous sa direction et son contrôle. Les décisions de mise en œuvre et la supervision sont consignées dans les registres internes (procès‑verbaux, directives, documentation de travail).

Réunion du conseil d’administration (visioconférence) — quorum, procès-verbal et signatures

Afin d’assurer une gouvernance active et des traces vérifiables, le conseil d’administration tient ses réunions au besoin par visioconférence (ex. Zoom). Les décisions sont adoptées par vote, consignées au procès‑verbal, et conservées dans les registres au Canada.

Bonnes pratiques (résumé) :

  • Quorum constaté (ex. 3/5 administrateurs) et vote consigné.
  • Le procès‑verbal peut être signé par le président de séance et le secrétaire de séance (deux signatures), tout en reflétant une décision du CA prise avec quorum.
  • Un extrait certifié conforme (1 page) peut être produit et signé par ces deux personnes.

Conseil d’administration :

Outils (modèles) :

Livres et registres : la Fondation conserve ses livres et registres requis au Canada et met à jour :

  • Historique des versions (dates + changements)
  • Journal des activités (publication, diffusion, liens)
  • Preuves de diffusion (URL, dates, supports)
  • Dépenses liées au programme (hébergement, outils de diffusion, production de contenu)

14) Documents officiels (extraits)

Pour faciliter la vérification de l’identité et des fins de l’Organisme, des extraits de documents officiels sont fournis ci‑dessous. Les documents complets sont conservés dans les registres internes.


15) Historique de versions

Les mises à jour sont datées. Les versions antérieures sont traçables via l’historique Git (horodatage public), et conservées au besoin en copie interne.

Version Date Changements
v1.0 2025-12-17 Publication initiale : page programme + Module 1 (objectifs, exercice, auto‑évaluation, corrigé).
v1.1 2025-12-18 Renforcement substantiel : publication des Modules 0, 2, 3, 4 et 5 (objectifs, contenu, exercices, quiz, corrigés). Mise à jour des indicateurs et du journal public.
v1.2 À venir Ajout d’un plan de continuité (90 jours) + renforcement du journal public (gouvernance) + checklist de séance publique. (Les liens YouTube et supports seront ajoutés dès leur publication.)
v1.3 2025-12-19 Ajout du Module 6 (optionnel) — ASI / superintelligence. Mise à jour du plan de cours, du journal public, et préparation d’une séance dédiée (Webinaire 3).

16) Contact

Fondation Intelligence / Intelligence Foundation
Montréal (Québec), Canada
NE / BN : 855938502 RR0001

Ce contenu est fourni à des fins éducatives. Il ne constitue pas un avis juridique, médical ou professionnel.