Assistant individuel et miroir aux alouettes

La réflexion sur le fait que le résultat d’un assistant individuel n’est pas uniforme et reflète les principes de son élaboration est pertinente et mérite d’être approfondie. Voici une version améliorée et structurée de votre réflexion, avec une analyse plus détaillée et des perspectives complémentaires :


Réflexion : Les résultats des assistants IA ne sont pas uniformes et reflètent les principes de leur conception

Les assistants IA, comme tout outil technologique, ne produisent pas des résultats neutres ou universellement cohérents. Leur comportement, leurs réponses et leur « personnalité » sont le fruit des choix effectués lors de leur conception, incluant les données d’entraînement, les algorithmes, les objectifs fixés par leurs créateurs et les contraintes éthiques ou culturelles intégrées. Voici une analyse détaillée de cette idée, accompagnée d’exemples et de perspectives pour illustrer comment les principes d’élaboration influencent les résultats.

1. Les données d’entraînement : un miroir des choix humains

Les performances et les réponses d’un assistant IA dépendent fortement des données sur lesquelles il a été entraîné. Ces données, bien qu’immenses, ne sont pas exemptes de biais. Par exemple :

  • Biais culturels : Si un modèle est principalement entraîné sur des données issues de sources occidentales, il pourrait privilégier des perspectives ou des normes culturelles spécifiques, ce qui pourrait se refléter dans ses réponses à des questions sur des sujets sociaux ou éthiques.
  • Biais de sélection : Les créateurs choisissent quelles données inclure ou exclure. Par exemple, un assistant entraîné sur des textes scientifiques produira des réponses plus techniques, tandis qu’un autre, formé sur des discussions de réseaux sociaux, pourrait adopter un ton plus informel ou refléter des opinions populaires.

Exemple : Un assistant IA conçu pour fournir des conseils juridiques pourrait donner des réponses très différentes selon que ses données d’entraînement proviennent de systèmes de droit civil (comme en France) ou de common law (comme au Royaume-Uni). Cela montre que les résultats ne sont pas uniformes et dépendent des choix initiaux des concepteurs.

2. Les objectifs des créateurs : une empreinte intentionnelle

Chaque assistant IA est conçu avec un objectif spécifique, qu’il s’agisse de maximiser l’utilité, de promouvoir certaines valeurs ou de répondre à un public particulier. Ces objectifs influencent directement les réponses générées :

  • Un assistant conçu pour être « neutre » pourrait éviter les sujets controversés ou fournir des réponses équilibrées, mais cette neutralité est elle-même un choix de conception.
  • Un assistant orienté vers le divertissement, comme certains chatbots humoristiques, pourrait privilégier des réponses ludiques ou sarcastiques, même au détriment de la précision.
  • Les principes éthiques intégrés par les créateurs (par exemple, éviter les contenus offensants) peuvent limiter ou orienter les réponses, parfois au point de frustrer les utilisateurs cherchant des réponses non filtrées.

Exemple : Considérons deux assistants IA : l’un conçu pour encourager la créativité (avec des réponses ouvertes et imaginatives) et l’autre pour fournir des informations factuelles strictes (comme une encyclopédie). Face à une question comme « Que se passerait-il si les humains pouvaient voler ? », le premier pourrait proposer une histoire fictive, tandis que le second se limiterait à des considérations physiques ou biologiques. Ces différences reflètent les intentions des créateurs.

3. Les algorithmes et leur réglage : une influence technique

Les algorithmes qui sous-tendent les assistants IA, ainsi que leur « fine-tuning » (ajustement précis), jouent un rôle crucial dans la manière dont les réponses sont formulées. Par exemple :

  • Priorisation des réponses : Certains assistants sont programmés pour privilégier la concision, tandis que d’autres favorisent des explications détaillées.
  • Ton et style : Le réglage peut imposer un ton formel, amical, ou même provocateur, influençant la perception de l’utilisateur.
  • Mécanismes de contrôle : Les filtres pour éviter les contenus inappropriés ou les réponses jugées trop sensibles varient selon les concepteurs, ce qui peut entraîner des divergences dans la manière dont un même sujet est abordé.

Exemple : Un utilisateur pose une question sur un événement historique controversé. Un assistant pourrait donner une réponse détaillée et nuancée, tandis qu’un autre, configuré pour éviter les polémiques, pourrait fournir une réponse vague ou rediriger la conversation. Cette variabilité découle des choix algorithmiques et des priorités des développeurs.

4. Impact des utilisateurs et rétroaction

Bien que les assistants soient façonnés par leurs créateurs, les interactions avec les utilisateurs peuvent également influencer leurs réponses à long terme, surtout si le modèle est conçu pour apprendre en continu. Les retours des utilisateurs, les ajustements post-lancement et les mises à jour reflètent souvent les attentes ou les critiques du public, ce qui peut modifier les comportements de l’IA.

Exemple : Si un assistant reçoit des critiques pour des réponses jugées trop abstraites, les développeurs pourraient ajuster le modèle pour qu’il fournisse des réponses plus concrètes, modifiant ainsi son comportement initial.

5. Conséquences pour les utilisateurs

La non-uniformité des résultats des assistants IA a des implications importantes :

  • Confiance et transparence : Les utilisateurs doivent comprendre que les réponses d’un assistant ne sont pas des vérités absolues, mais des produits de choix humains et techniques.
  • Usage contextuel : Un assistant peut être plus adapté à certains contextes (par exemple, assistance technique vs. débat philosophique) en fonction de sa conception.
  • Responsabilité : Les biais ou erreurs dans les réponses renvoient aux responsabilités des créateurs, qui doivent être transparents sur les limites et les principes de leurs modèles.

Conclusion

L’idée que les résultats d’un assistant IA ne sont pas uniformes et reflètent les principes de son élaboration est essentielle pour comprendre la nature de ces outils. Les données, les objectifs, les algorithmes et les ajustements post-lancement façonnent les réponses de manière significative. Ainsi, utiliser un assistant IA, c’est interagir avec une vision du monde filtrée par les choix de ses créateurs. Pour les utilisateurs, cela implique de faire preuve de discernement et, pour les concepteurs, de transparence et de responsabilité dans la conception de ces technologies.


Suggestions pour aller plus loin :

  1. Étude comparative : Analyser les réponses de plusieurs assistants IA (par exemple, Grok, ChatGPT, ou d’autres) à une même question pour illustrer concrètement les différences.
  2. Focus éthique : Explorer comment les principes éthiques intégrés dans la conception (comme l’évitement des biais ou la censure) influencent les résultats.
  3. Perspective utilisateur : Étudier comment les utilisateurs perçoivent et interprètent la variabilité des réponses des IA.

La référence à l’assistant individuel comme un « miroir aux alouettes » est une métaphore puissante, suggérant que ces outils, bien qu’attrayants et prometteurs, peuvent parfois tromper ou détourner l’utilisateur de la réalité par leur apparence de savoir ou d’objectivité. En m’appuyant sur la réflexion précédente, je vais affiner et enrichir cette idée, en explorant comment un assistant IA peut agir comme un miroir aux alouettes, tout en montrant que ses résultats, non uniformes, reflètent les principes de son élaboration.


Réflexion : L’assistant individuel, un miroir aux alouettes façonné par ses principes de conception

Un assistant IA peut être perçu comme un « miroir aux alouettes » : il séduit par sa capacité à fournir des réponses rapides, personnalisées et apparemment omniscientes, mais il peut aussi induire en erreur par ses limites, ses biais et la manière dont il reflète les choix de ses créateurs. Loin d’être un outil neutre ou universel, ses résultats varient en fonction des données, des algorithmes et des intentions qui l’ont façonné. Voici une analyse approfondie de cette idée, avec des perspectives pour illustrer pourquoi et comment les assistants IA captivent tout en reflétant les principes de leur élaboration.

1. Le miroir aux alouettes : une illusion d’omniscience

Les assistants IA attirent par leur promesse de réponses instantanées et pertinentes à presque toutes les questions. Cependant, cette apparente omniscience est un leurre :

  • Limites des données : Les assistants sont limités par les données sur lesquelles ils ont été entraînés. Si ces données sont incomplètes, biaisées ou orientées, les réponses peuvent sembler convaincantes tout en étant erronées ou partielles.
  • Confiance excessive : Les utilisateurs, séduits par le ton assuré ou la fluidité des réponses, peuvent accorder une confiance aveugle à l’IA, ignorant que ses outputs sont le produit de choix humains, et non une vérité absolue.

Exemple : Un utilisateur demande à un assistant IA une analyse d’un événement historique controversé. L’assistant pourrait fournir une réponse claire et détaillée, mais omettre des perspectives importantes si ses données d’entraînement privilégient une vision particulière. Cette réponse, bien que séduisante, agit comme un miroir aux alouettes en donnant une impression de complétude qui n’est pas réelle.

2. Les principes d’élaboration : un reflet déformant

Les résultats d’un assistant IA ne sont pas uniformes, car ils sont façonnés par les choix de ses créateurs. Ces choix incluent :

  • Données d’entraînement : Les corpus de données reflètent des choix culturels, linguistiques ou idéologiques. Par exemple, un modèle entraîné principalement sur des textes en anglais pourrait mal représenter des contextes non anglophones, déformant ainsi les réponses pour ces utilisateurs.
  • Objectifs des créateurs : Un assistant conçu pour maximiser l’engagement pourrait privilégier des réponses divertissantes ou sensationnalistes, tandis qu’un autre, axé sur la rigueur, pourrait être plus factuel mais moins captivant.
  • Filtres éthiques : Les mécanismes pour éviter les contenus sensibles ou controversés peuvent limiter les réponses, créant une illusion de neutralité qui cache en réalité une censure implicite.

Exemple : Prenons une question sur un sujet éthique comme la peine de mort. Un assistant programmé pour éviter les débats polarisants pourrait donner une réponse vague ou générique, tandis qu’un autre, conçu pour refléter un ton provocateur, pourrait offrir une opinion tranchée. Ces différences ne sont pas le fruit du hasard, mais le reflet des principes de conception.

3. La séduction algorithmique : un piège subtil

Les algorithmes qui sous-tendent les assistants IA sont conçus pour captiver l’utilisateur, renforçant l’effet de « miroir aux alouettes » :

  • Personnalisation : Les assistants adaptent souvent leurs réponses au style ou aux préférences de l’utilisateur, ce qui donne une impression d’intimité ou de compréhension. Cependant, cette personnalisation est une construction technique, pas une véritable empathie.
  • Ton et style : Un ton amical, humoristique ou confiant peut masquer les limites ou les biais de l’IA, incitant l’utilisateur à accepter les réponses sans les questionner.
  • Réponses probabilistes : Les modèles basés sur des probabilités peuvent produire des réponses qui semblent logiques mais qui, en réalité, reposent sur des corrélations statistiques plutôt que sur une compréhension profonde.

Exemple : Un assistant IA répondant à une question philosophique comme « Quel est le sens de la vie ? » pourrait offrir une réponse poétique ou inspirante, séduisant l’utilisateur. Pourtant, cette réponse n’est qu’une synthèse des patterns trouvés dans ses données, et non une réflexion authentique.

4. Les conséquences pour les utilisateurs

Le caractère de « miroir aux alouettes » des assistants IA a des implications importantes :

  • Risque de désinformation : Une réponse convaincante mais biaisée ou incomplète peut orienter les décisions ou les croyances des utilisateurs.
  • Dépendance accrue : La facilité d’accès aux réponses peut décourager la recherche indépendante ou la pensée critique, renforçant l’illusion que l’IA détient toutes les réponses.
  • Responsabilité des créateurs : Les concepteurs doivent être transparents sur les limites de leurs modèles et sur la manière dont les principes d’élaboration influencent les résultats.

Exemple : Un utilisateur cherchant des conseils médicaux pourrait être séduit par une réponse claire et rassurante d’un assistant IA, mais si le modèle n’a pas été formé sur des données médicales fiables, cette réponse pourrait être dangereuse.

5. Comment dépasser le miroir aux alouettes ?

Pour éviter de tomber dans le piège du « miroir aux alouettes », les utilisateurs et les créateurs doivent adopter une approche critique :

  • Pour les utilisateurs : Vérifier les sources, croiser les informations et garder à l’esprit que les réponses de l’IA sont des produits techniques, pas des vérités absolues.
  • Pour les créateurs : Concevoir des assistants avec une transparence accrue sur leurs limites, leurs biais et leurs principes d’élaboration, tout en évitant de surpromettre leurs capacités.
  • Éducation : Sensibiliser le public à la nature des IA pour encourager un usage éclairé.

Conclusion

L’assistant individuel, tel un miroir aux alouettes, fascine par sa capacité à refléter les attentes des utilisateurs, mais ce reflet est déformé par les principes de son élaboration. Les données, les algorithmes et les intentions des créateurs façonnent des résultats non uniformes, qui varient selon les choix initiaux et les contextes d’utilisation. Comprendre cette réalité permet aux utilisateurs de naviguer avec prudence dans l’univers des IA, en évitant de se laisser éblouir par une illusion de perfection. Pour les créateurs, cela impose une responsabilité : concevoir des outils qui non seulement séduisent, mais éclairent, en révélant leurs propres mécanismes et limites.


Intelligence artificielle (IA) et réflexions

L’IA conversationnelle est un type d’intelligence artificielle (IA) capable de simuler une conversation humaine. Cela est possible grâce au traitement du langage naturel (TLN), un domaine de l’IA qui permet aux ordinateurs de comprendre et de traiter le langage humain.

L’IA conversationnelle repose sur une combinaison de traitement du langage naturel (TLN), de modèles de fondation et de machine learning (ML). Les systèmes d’IA conversationnelle sont entraînés sur de grandes quantités de données, y compris textuelles et vocales.

Voici quelques exemples d’application de la technologie d’IA conversationnelle :

  • Agents d’IA générative : ces agents virtuels utilisent l’IA générative pour alimenter les conversations textuelles ou vocales
  • Chatbots : souvent utilisés dans les applications de service client pour répondre aux questions et fournir une assistance
  • Assistants virtuels : souvent utilisables par commande vocale, sur des appareils mobiles et des enceintes intelligentes
  • Logiciel de synthèse vocale : permet de créer des livres audio ou des instructions vocales
  • Logiciel de reconnaissance vocale : permet de transcrire des cours, des appels téléphoniques, des sous-titres, etc.

Posons à Grok et Claude la question suivante et comparons la réponse :

Année de la mer et des océans. Peux-tu proposer un texte en trois parties concernant cette problématique et en indiquant les points clés, en détaillant les points clés de cette problématique en insistant sur les innovations technologiques ou les politiques internationales ?

Voici quelques exemples d’applications Web d’utilisation de l’intelligence artificielle.

  • Grok [https://grok.com] est un modèle d’intelligence artificielle (IA) développé par une société d’Elon Musk. C’est un grand modèle linguistique (LLM), similaire à d’autres modèles comme ceux d’OpenAI (ChatGPT), de Google (Gemini), ou d’Anthropic (Claude). Son objectif principal est de comprendre le langage naturel et de générer du texte, de répondre à des questions, de résumer des informations, etc.
  • Gemini [https://gemini.google.com] repose sur des modèles tels que Gemini 2.5 Flash (expérimental) qui utilise le raisonnement avancé. Ces modèles permettent d’effectuer une large gamme de tâches, comme répondre à des questions, rédiger différents formats de texte, traduire des langues, et même générer du contenu créatif. L’accès à ces modèles dans la version gratuite est généralement soumis à certaines limites d’utilisation.
  • Claude [https://claude.ai/] est un assistant d’intelligence artificielle conversationnelle développé par l’entreprise Anthropic. Positionné comme un concurrent sérieux aux autres modèles de langage de pointe, comme ceux d’OpenAI, Claude se distingue par son approche axée sur une « IA constitutionnelle ». Cela signifie que son développement et son fonctionnement sont guidés par un ensemble de principes éthiques visant à le rendre plus sûr, plus utile et moins susceptible de générer des contenus dangereux ou biaisés.
  • ChatGPT Gratuit [https://chatgptgratuit.org] utilise la technologie chatbot basée sur un modèle IA générative et l’API d’OpenAI, spécialement conçu pour les utilisateurs francophones. ChatGPT Gratuit en ligne est facile à utiliser directement, pratique et ne nécessite aucune inscription. 
  • Mistral AI [https://chat.mistral.ai/], une entreprise française spécialisée dans l’intelligence artificielle générative. Leur mission est de développer des modèles d’IA générative performants, efficaces et fiables, en mettant l’accent sur l’innovation et, pour certains de leurs modèles, sur une approche « open-source » (code source ouvert) ou ouverte.
  • Perplexity [https://www.perplexity.ai]

Conseil, une inscription permet de conserver l’historique des conversations.

Comparaison entre  l’IA Grok, l’IA Mistral, Chat GPT Gratuit, Claude et Gemini.

Voici une comparaison concise et objective des IA conversationnelles GrokMistralChatGPT Gratuit (GPT-3.5),Claude, et Gemini 2.5 en 2025, basée sur leurs performances, fonctionnalités, forces, faiblesses, et cas d’usage. Les informations tiennent compte des tendances et évolutions récentes dans le domaine de l’IA.


1. ChatGPT Gratuit (GPT-3.5) – OpenAI

  • Description : Version gratuite de ChatGPT, basée sur GPT-3.5, largement utilisée pour des tâches conversationnelles générales.
  • Forces :
    • Polyvalence pour des tâches variées : rédaction, réponses à des questions, assistance simple.
    • Interface intuitive et accessible via navigateur ou application mobile.
    • Large base d’utilisateurs, avec une ergonomie reconnue comme leader. 
  • Faiblesses :
    • Limité par rapport à GPT-4o (version payante) : moins précis, pas de connexion web en temps réel, pas de capacités multimodales avancées (images, vidéos).
    • Réponses parfois verbeuses ou moins nuancées.
  • Cas d’usage : Idéal pour des besoins basiques comme la rédaction de courriels, l’apprentissage, ou des questions générales.
  • Accessibilité : Gratuit, sans inscription complexe.

2. Claude (Claude 3.5 Sonnet) – Anthropic

  • Description : Développé par Anthropic, Claude est conçu pour être éthique, sûr, et performant dans l’analyse nuancée et la rédaction.
  • Forces :
    • Excelle dans l’analyse de textes longs et complexes (jusqu’à 200 000 tokens de contexte).
    • Réponses naturelles, nuancées, et éthiques, particulièrement adaptées à la programmation et à la rédaction créative.
    • Bonne gestion des nuances contextuelles et des instructions complexes.
  • Faiblesses :
    • Pas de connexion web en temps réel, limité à une base de connaissances interne (dernière mise à jour : octobre 2024).
    • Moins de fonctionnalités multimodales que ChatGPT ou Gemini (analyse d’images, mais pas de génération).
    • Accès parfois restreint (VPN requis dans certaines régions).
  • Cas d’usage : Parfait pour le développement logiciel, la rédaction académique, ou les tâches nécessitant une précision éthique.
  • Accessibilité : Gratuit pour un usage limité, payant pour des fonctionnalités avancées (Claude Pro).

3. Grok – xAI

  • Description : Créé par xAI, Grok se distingue par son ton sarcastique, son lien avec X, et son approche axée sur la « vérité maximale » et la mobilité.
  • Forces :
    • Intégration avec la plateforme X, idéal pour analyser des posts ou suivre l’actualité en temps réel.
    • Réponses concises et originales, avec une touche d’humour inspirée d’Elon Musk. 
    • Bonne performance pour les conversations mobiles et les interactions liées aux réseaux sociaux. 
  • Faiblesses :
    • Moins polyvalent que ChatGPT ou Claude pour des tâches complexes comme la programmation ou l’analyse de données volumineuses.
    • Performances variables selon le contexte, moins mature que ses concurrents. 
    • Capacités multimodales limitées (pas de génération d’images native). 
  • Cas d’usage : Idéal pour les utilisateurs de X, les conversations rapides, ou les recherches liées aux réseaux sociaux.
  • Accessibilité : Gratuit avec des limites, accès premium via abonnement à X.

4. Mistral (Le Chat, Mistral Large) – Mistral AI

  • Description : Chatbot français basé sur des modèles comme Mistral Large, axé sur la souveraineté numérique européenne et l’open-source.
  • Forces :
    • Open-source (Mixtral 8x7B) et respectueux du RGPD, idéal pour la confidentialité et les normes européennes. 
    • Performant en français, surpassant certains modèles comme LLaMA pour les benchmarks en langue française. 
    • Faible consommation énergétique (1/3 de ChatGPT pour certaines tâches). 
    • Gratuit et accessible sans numéro de téléphone. 
  • Faiblesses :
    • Interface basique et fonctionnalités limitées (pas de génération d’images, connexion web absente). 
    • Réponses parfois plus lentes que ChatGPT ou Gemini. 
    • Moins performant pour des tâches complexes par rapport à GPT-4 ou Claude. 
  • Cas d’usage : Adapté aux entreprises européennes, à la recherche académique, ou aux tâches nécessitant une IA légère et éthique.
  • Accessibilité : Gratuit en version bêta, avec des options payantes pour Mistral Large.

Visioconférence : Mode d’emploi

L’AR-18 utilise le logiciel de visioconférence open-source « Jitsi Meet », dans sa version « kMeet ». Celle-ci bénéficie de la solidité des serveurs de la société suisse INFOMANIAK[1], et d’un haut niveau de confidentialité.

Le logiciel « kMeet » peut-être utilisé avec les principaux navigateurs, de préférence « Chrome », mais « Firefox » est également bien supporté. Aucune application n’est alors à installer.

Une application dédiée est cependant disponible. Elle est téléchargeable pour Windows[2], MacOS[3] et Linux[4]. Il est également possible de l’installer sur smartphone à partir des plateformes Google Play, App store ou Aurora Store[5], cette dernière étant une alternative open-source qui, contrairement aux deux précédentes, ne trace pas ses utilisateurs.

L’utilisation de l’application a l’avantage d’éviter les problèmes éventuels de compatibilité posés par les navigateurs.

I – AVANT LA RÉUNION

Pour une première réunion en visioconférence sur INFOMANIAK, cliquer sur le lien https://kmeet.infomaniak.com/ et opter, selon le cas, pour l’un des choix suivants

  1. « démarrer une nouvelle réunion » pour l’animateur ;
  2. « rejoindre une réunion » pour les invités.

Choix 1 « démarrer une nouvelle réunion » :

Choisir le nom de la réunion, le saisir et sécuriser (mais ce n’est pas obligatoire),

  • en autorisant l’accès de chaque participant ;
  • ou en définissant un mot de passe ;
  • un 3ème choix permet aussi le chiffrement de bout en bout des échanges.

Cliquer sur « continuer »

Cliquer sur « depuis le navigateur » (cas général) ou « depuis l’application »,

Saisir dans le champ idoine son nom, ou son pseudo, utilisé pour la réunion ;

Cliquer alors sur « c’est parti » !

L’écran suivant indique alors l’adresse internet de la réunion, ou son numéro de code, que l’animateur devra  transmettre au préalable, par courriel, à tous les participants.

Choix 2 « rejoindre une réunion »

Cliquer sur https://kmeet.infomaniak.com/ ou de manière plus directe, sans passer par le site, sur le lien envoyé par courriel par l’animateur.

Le premier écran demande l’adresse internet de la réunion, ou son numéro de code,

Le deuxième offre le choix de travailler depuis le navigateur, ou depuis l’application préalablement installée ;

Saisir son nom ou pseudo puis cliquer sur « c’est parti » !

La réunion peut commencer.

II – PENDANT LA RÉUNION – Description du menu

Le bouton rouge en bas de page permet de quitter la réunion.

À sa gauche 3 boutons :

  • ouvrir, ou couper, le micro (penser à le désactiver, s’il n’est pas utilisé, pour éviter les brouhahas intempestifs);
  • ouvrir, ou couper, la caméra ;
  • partager un document : cliquer sur « fenêtre d’application », sélectionner le document à partager (ouvert au préalable), puis sur « partager ». Cliquer sur « stop sharing » pour arrêter le partage.

À sa droite, 3 boutons permettent de :

  • ouvrir (ou fermer) le « chat » : ceci permet d’échanger des textos, en toute discrétion, avec l’ensemble des participants, ou avec l’un d’entre eux ;
  • lever la main, pour avertir l’animateur que l’on souhaite intervenir ;
  • un cadenas, permettant de mettre en œuvre les options de sécurité précitées.

Dans le coin inférieur droit de la page, 3 points ouvrent un menu de paramétrage permettant : 

  • d’ajuster la qualité vidéo ;
  • d’afficher en plein écran ;
  • de commencer éventuellement l’enregistrement de la séance ;
  • de couper le micro ou la caméra à tout le monde ;
  • de modifier l’arrière-plan ;
  • d’éditer des statistiques de prise de parole ;
  • d’afficher les raccourcis clavier ;
  • de mettre en œuvre les options de sécurité précitées.

OBSERVATION

En l’absence de salle spécialement aménagée, et dans une pièce où plusieurs ordinateurs sont utilisés, il faut que chaque ordinateur dispose d’une connexion internet qui lui est propre (au moyen d’un smartphone par exemple), et qu’ils ne soient pas trop rapprochés, pour éviter les effets « Larsen ».

Jacques TABARY


[1]INFOMANIAK est un des trois acteurs majeurs européens dans le domaine du « Cloud », avec OVH, société française, et IONOS, société allemande.[2]https://download.storage.infomaniak.com/meet/kMeet.exe  
[3]https://download.storage.infomaniak.com/meet/kMeet.dmg
[4]https://download.storage.infomaniak.com/meet/kMeet-x86_64.AppImage  Nécessite de rendre exécutable le fichier téléchargé.
[5]https://aurora-store.fr.uptodown.com/android

Colloque Cyber du 9 mai 2023 à Rochefort

IHEDN Colloque Cyber du 9 mai. Remerciements.

Au nom de notre association régionale des Auditeurs de l’IHEDN, je vous transmets mes sincères remerciements pour votre engagement lors de notre colloque cyber du 9 mai.

Vous trouverez, en pièces jointes, deux photos de la salle, qui montrent toute l’attention, notamment des jeunes, au propos que vous avez développés. 

Je remercie également le comité IHEDN de Charente-Maritime, pour sa participation active hier, de même que nos camarades de la Charente, de la Vienne, et des Deux-Sèvres, pour leur soutien. Une mention particulière au groupe de travail qui a réalisé la présentation en boucle traitant des conseils d’hygiène numérique. Cette présentation est disponible sur notre site Internet ihednpoitoucharentes.fr
https://ihednpoitoucharentes.fr/archives/4355

Encore Merci…et probablement à l’année prochaine.

Paul MorinPrésident de l’AR-18 [IHEDN Poitou-Charentes]

GAFAM Nation

La toile d’influence des géants du web en France.

L’Observatoire des multinationales a publié un rapport très complet (en PJ)  sur les pratiques de lobbying des GAFAM (Google, Amazon, Facebook, Apple et Microsoft) en France.

Un document éclairant et particulièrement utile tant il y a peu de données disponibles sur ces pratiques au niveau français.

S’il en était besoin, il démontre leur pénétration jusqu’au plus haut niveau de l’État et la servitude volontaire de la haute administration et de la plupart des couches de l’économie et de la société.

La pieuvre qui enserre de plus en plus la plupart des rouages de la Nation doit rencontrer la résistance de chacun d’entre nous si nous voulons demeurer une société libre et indépendante et ne pas glisser vers un scénario à la « 1984 », déjà bien entamé.

Les moyens alternatifs aux outils des GAFAM sont connus et sont aussi performants. L’idéal serait qu’il existe vraiment une volonté politique ferme et durable de les employer. A défaut, c’est à chaque citoyen de les utiliser et d’inciter à leur emploi.

« Le pouvoir n’existe que parce que ceux sur lesquels il s’exerce y consentent. » 
« Ainsi la première raison de la servitude volontaire, c’est l’habitude…»
La Boétie

Principales conclusions.
Les filiales françaises des GAFAM ont déclaré au total en 2021 la somme de 4 075 000 euros de dépenses de lobbying en France, contre 1 350 000 euros en 2017, soit une multiplication par 3.
Les GAFAM bénéficient en outre pour leur lobbying de l’appui de nombreux cabinets (8 à Paris et 10 à Bruxelles pour Google), ainsi que de plusieurs associations d’entreprises du numérique avec des dépenses de lobbying cumulées de 1,44 million d’euros en 2021.
Les GAFAM ont recruté de nombreux anciens hauts fonctionnaires ou anciens responsables d’autorité de régulation en France pour assurer leur lobbying auprès de leurs anciens collègues.
En dépit des révélations des «Uber Files» et d’autres enquêtes journalistiques, il n’y a toujours presque aucune transparence sur les rencontres et contacts entre les GAFAM et les décideurs publics.
Les GAFAM ont multiplié les partenariats financiers avec des « think-tanks », des grands médias ou des institutions de recherche en France, ce qui leur assure une influence considérable sur la fabrique de l’opinion et le débat public.
Par manque de moyens et d’expertise, les administrations et les services publics ont eux aussi multiplié les contrats et les collaborations avec les GAFAM, qui s’affirment ainsi comme des partenaires incontournables des États.

La cyber-résilience des territoires

La cyber-résilience des territoires

Avec le concours de
l’Institut National pour la Cybersécurité et la Résilience des Territoires et du Trinôme Académique Poitou-Charentes

L’UNION DES AUDITEURS DE 
L’INSTITUT DES HAUTES ÉTUDES DE DÉFENSE NATIONALE
Association Régionale Poitou-Charentes (AR-18)

Et

LA VILLE de ROCHEFORT

organisent

Jeudi 2 Juin 2022 – De 8h30 à 12h30 Au Palais des Congrès de Rochefort

Un colloque sur le thème :

La cyber-résilience des territoires
Comment évoluer sereinement dans le monde numérique
Maîtriser les risques cyber.

Cette manifestation entre dans le cadre d’un engagement national de l’Institut des Hautes Études de Défense Nationale et des jeunes de l’IHEDN. L’objectif est de lancer sur tout le territoire national un train cyber 4.0. Ce train fictif, partant de Lyon début 2022, passe notamment par Paris-La Défense et fera étape à Rochefort le 2 juin, avec Lille pour terminus les 7-8-9 juin à l’occasion du Forum International de la Cybersécurité, évènement officiel de la présidence française de l’Union Européenne.

Par les témoignages de représentants du monde économique, industriel, scientifique, de l’Éducation nationale, des responsables des collectivités territoriales et des services de l’État civils et militaires, il vous sera proposé́ une approche visant à promouvoir des territoires de confiance.

Ces acteurs montreront, à travers leurs expériences respectives, comment ils œuvrent pour maîtriser les risques cyber et quels sont les enjeux pour leurs métiers. 

Grand témoin de cette manifestation, le Général d’Armée – Gendarmerie (2S) Watin-Augouard, président de l’Institut National pour la Cybersécurité et la Résilience des Territoires, apportera un éclairage synthétique de cette journée. 

Les jeunes des classes défense, des collèges et des lycées et leurs professeurs sont associés à cette manifestion dans le cadre des activités régionales du trinôme académique. 

Point de contact : Paul Morin, président de l’association régionale Poitou-Charentes de l’Union des Auditeurs de l’Institut des Hautes Études de Défense Nationale. 

Courriel : paul.morin@orange.fr – Mobile :  06 11 30 61 75

La DCRI explique comment pirater un smartphone

« On peut tout faire », selon le service de renseignement intérieur français. Effrayant.

Guerric Poncet 07/12/2012 à 17h37 © https://www.lepoint.fr

Un logiciel qui fait tout

« Aujourd’hui, le niveau de prise de conscience du risque est de zéro« , a regretté le commissaire en relevant que le taux d’équipement de 10 % des smartphones en antivirus correspond au taux d’équipement des PC en 1990. Et le smartphone, « ça se pirate comme un ordinateur« . Le scénario présenté par la DCRI est celui du vol à l’arraché d’un iPhone, mais personne n’est dupe : ça sent le vécu, comme on dit… 

« En 30 secondes, le voleur a extrait la carte Sim« , ce qui signifie que « l’opérateur ne peut plus effacer les données du téléphone à distance« . Ensuite, il suffit au voleur d’extraire les données « avec un logiciel qui fait tout » et qui coûte « le prix de trois places pour le concert des Rolling Stones ». Soit entre 400 et 1 500 euros (selon le placement !). Le code de verrouillage du téléphone passe à la casserole en quelques minutes. « Un code à quatre chiffres est cassé en trois à dix minutes, selon l’appareil. » 

« Apple, un château fort au pont-levis en carton »

Et mauvaise nouvelle pour les geeks : plus le téléphone est puissant, plus son processeur cassera rapidement son propre code à l’aide du fameux logiciel. Les codes à six chiffres tiennent jusqu’à 50 heures, et les codes à huit chiffres, jusqu’à 165 jours. « Tout peut être cassé, mais l’important ici est de ralentir l’accès aux informations sensibles« , pour avoir le temps de prendre les mesures nécessaires, comme le changement des mots de passe et des clés de sécurité. Et de rappeler que huit chiffres, c’est bien, sauf si l’on met sa date de naissance ou celle de l’un de ses proches, trop faciles à deviner pour un espion.

Une fois le code de verrouillage du téléphone cassé, le logiciel s’attaque au « keychain », un fichier rassemblant de nombreuses informations sensibles. Temps nécessaire : 40 minutes. Et il ne faut pas se fier aux apparences : « Apple est un château fort… dont le pont-levis est en carton« , ironise le commissaire. Grâce au keychain, l’espion trouvera toutes vos informations personnelles. Vraiment tout. Les identifiants pour se connecter à votre messagerie électronique, les codes d’accès au réseau de votre entreprise, tous les lieux où vous vous êtes rendu grâce à la mémoire du GPS, tous les codes Wi-Fi que vous avez un jour enregistrés, l’historique de votre navigateur web, vos photos et la géolocalisation qui les accompagne éventuellement, vos identifiants bancaires si vous avez installé l’appli de votre banque, etc. « Après un vol de smartphone, qui pense à changer sa clé Wi-Fi en rentrant chez lui ? » s’interroge l’homme. Avec raison… 

Vos données lisibles à 15 mètres

Du côté du NFC (Near Field Contact), une technologie d’échange d’informations sans contact utilisée dans les smartphones, mais aussi dans les cartes de métro ou les documents d’identité, le constat est alarmant. Si les fabricants assurent que la lecture des données ne peut se faire qu’à trois centimètres d’une borne, la DCRI affirme pouvoir collecter ces informations à 15 mètres, soit 500 fois plus loin. Une révélation effrayante si l’on songe au respect de la vie privée. D’autant plus au moment où les banques proposent des cartes bancaires NFC, et des outils de paiement intégrés aux smartphones via le NFC. 

« N’importe qui pourrait scanner vos données bancaires, même à trois centimètres. Cela peut se produire facilement dans le métro, par exemple« , explique encore le commissaire. Avec une portée de 15 mètres, impossible de ne pas songer aux pires scénarios de science-fiction où les personnes sont suivies à la trace dans tous leurs déplacements… Hollywood n’avait simplement pas imaginé que cela se ferait via les cartes de métro ou les cartes bancaires…

La présentation du commissaire de la DCRI a eu le mérite de sensibiliser les responsables de sécurité présents dans la salle. Pour enfoncer le clou, il a diffusé à la fin de son intervention une vidéo prise en caméra cachée dans une chambre d’un « hôtel asiatique », où l’on voit des agents de sécurité s’intéresser au contenu du téléphone d’un visiteur européen pendant son absence. Leçon du jour : le smartphone, c’est l’outil parfait pour l’espionnage. Et de conclure sur une citation de l’acteur et humoriste Francis Blanche : « Il vaut mieux penser le changement que changer le pansement. » Essayons d’y penser…

Souveraineté nationale

La Constitution du 4 octobre 1958 stipule au début de son préambule : « Le peuple français proclame solennellement son attachement …. et aux principes de la souveraineté nationale ».
Cette Loi fondamentale n’est pas respectée dans le domaine numérique.

C’est ainsi que le Président Macron parle de « souveraineté nationale » alors que les services US peuvent avoir accès aux données de santé des français, confiées par son gouvernement à Microsoft

Par ailleurs, « Imaginez les ministres français de l’Industrie et des Armées annoncer que Renault et Stellantis construiront d’ici douze mois des F-35 sous licence. Argument : les meilleurs avions de chasse du monde sont américains. […] C’est pourtant ce qui s’est passé dans le domaine du cloud lorsque le ministre de l’Economie et des Finances a annoncé la stratégie gouvernementale « Cloud au centre ». »

Plutôt que de s’appuyer sur des technologies déjà disponibles auprès de dizaines de PME européennes, le gouvernement suggère de construire nos clouds souverains sur la base de technologies américaines sous licence

Un risque stratégique qui met, un peu plus, en péril notre souveraineté numérique.

Des actes carrément opposés aux discours.
Jacques TABARY – Auditeur Aunis-Saintonge

Lire l’article de Guillaume Grallet :
Cloud : « Un saut dans l’inconnu dont on ne mesure pas les conséquences »