Assistant individuel et miroir aux alouettes

La réflexion sur le fait que le résultat d’un assistant individuel n’est pas uniforme et reflète les principes de son élaboration est pertinente et mérite d’être approfondie. Voici une version améliorée et structurée de votre réflexion, avec une analyse plus détaillée et des perspectives complémentaires :


Réflexion : Les résultats des assistants IA ne sont pas uniformes et reflètent les principes de leur conception

Les assistants IA, comme tout outil technologique, ne produisent pas des résultats neutres ou universellement cohérents. Leur comportement, leurs réponses et leur « personnalité » sont le fruit des choix effectués lors de leur conception, incluant les données d’entraînement, les algorithmes, les objectifs fixés par leurs créateurs et les contraintes éthiques ou culturelles intégrées. Voici une analyse détaillée de cette idée, accompagnée d’exemples et de perspectives pour illustrer comment les principes d’élaboration influencent les résultats.

1. Les données d’entraînement : un miroir des choix humains

Les performances et les réponses d’un assistant IA dépendent fortement des données sur lesquelles il a été entraîné. Ces données, bien qu’immenses, ne sont pas exemptes de biais. Par exemple :

  • Biais culturels : Si un modèle est principalement entraîné sur des données issues de sources occidentales, il pourrait privilégier des perspectives ou des normes culturelles spécifiques, ce qui pourrait se refléter dans ses réponses à des questions sur des sujets sociaux ou éthiques.
  • Biais de sélection : Les créateurs choisissent quelles données inclure ou exclure. Par exemple, un assistant entraîné sur des textes scientifiques produira des réponses plus techniques, tandis qu’un autre, formé sur des discussions de réseaux sociaux, pourrait adopter un ton plus informel ou refléter des opinions populaires.

Exemple : Un assistant IA conçu pour fournir des conseils juridiques pourrait donner des réponses très différentes selon que ses données d’entraînement proviennent de systèmes de droit civil (comme en France) ou de common law (comme au Royaume-Uni). Cela montre que les résultats ne sont pas uniformes et dépendent des choix initiaux des concepteurs.

2. Les objectifs des créateurs : une empreinte intentionnelle

Chaque assistant IA est conçu avec un objectif spécifique, qu’il s’agisse de maximiser l’utilité, de promouvoir certaines valeurs ou de répondre à un public particulier. Ces objectifs influencent directement les réponses générées :

  • Un assistant conçu pour être « neutre » pourrait éviter les sujets controversés ou fournir des réponses équilibrées, mais cette neutralité est elle-même un choix de conception.
  • Un assistant orienté vers le divertissement, comme certains chatbots humoristiques, pourrait privilégier des réponses ludiques ou sarcastiques, même au détriment de la précision.
  • Les principes éthiques intégrés par les créateurs (par exemple, éviter les contenus offensants) peuvent limiter ou orienter les réponses, parfois au point de frustrer les utilisateurs cherchant des réponses non filtrées.

Exemple : Considérons deux assistants IA : l’un conçu pour encourager la créativité (avec des réponses ouvertes et imaginatives) et l’autre pour fournir des informations factuelles strictes (comme une encyclopédie). Face à une question comme « Que se passerait-il si les humains pouvaient voler ? », le premier pourrait proposer une histoire fictive, tandis que le second se limiterait à des considérations physiques ou biologiques. Ces différences reflètent les intentions des créateurs.

3. Les algorithmes et leur réglage : une influence technique

Les algorithmes qui sous-tendent les assistants IA, ainsi que leur « fine-tuning » (ajustement précis), jouent un rôle crucial dans la manière dont les réponses sont formulées. Par exemple :

  • Priorisation des réponses : Certains assistants sont programmés pour privilégier la concision, tandis que d’autres favorisent des explications détaillées.
  • Ton et style : Le réglage peut imposer un ton formel, amical, ou même provocateur, influençant la perception de l’utilisateur.
  • Mécanismes de contrôle : Les filtres pour éviter les contenus inappropriés ou les réponses jugées trop sensibles varient selon les concepteurs, ce qui peut entraîner des divergences dans la manière dont un même sujet est abordé.

Exemple : Un utilisateur pose une question sur un événement historique controversé. Un assistant pourrait donner une réponse détaillée et nuancée, tandis qu’un autre, configuré pour éviter les polémiques, pourrait fournir une réponse vague ou rediriger la conversation. Cette variabilité découle des choix algorithmiques et des priorités des développeurs.

4. Impact des utilisateurs et rétroaction

Bien que les assistants soient façonnés par leurs créateurs, les interactions avec les utilisateurs peuvent également influencer leurs réponses à long terme, surtout si le modèle est conçu pour apprendre en continu. Les retours des utilisateurs, les ajustements post-lancement et les mises à jour reflètent souvent les attentes ou les critiques du public, ce qui peut modifier les comportements de l’IA.

Exemple : Si un assistant reçoit des critiques pour des réponses jugées trop abstraites, les développeurs pourraient ajuster le modèle pour qu’il fournisse des réponses plus concrètes, modifiant ainsi son comportement initial.

5. Conséquences pour les utilisateurs

La non-uniformité des résultats des assistants IA a des implications importantes :

  • Confiance et transparence : Les utilisateurs doivent comprendre que les réponses d’un assistant ne sont pas des vérités absolues, mais des produits de choix humains et techniques.
  • Usage contextuel : Un assistant peut être plus adapté à certains contextes (par exemple, assistance technique vs. débat philosophique) en fonction de sa conception.
  • Responsabilité : Les biais ou erreurs dans les réponses renvoient aux responsabilités des créateurs, qui doivent être transparents sur les limites et les principes de leurs modèles.

Conclusion

L’idée que les résultats d’un assistant IA ne sont pas uniformes et reflètent les principes de son élaboration est essentielle pour comprendre la nature de ces outils. Les données, les objectifs, les algorithmes et les ajustements post-lancement façonnent les réponses de manière significative. Ainsi, utiliser un assistant IA, c’est interagir avec une vision du monde filtrée par les choix de ses créateurs. Pour les utilisateurs, cela implique de faire preuve de discernement et, pour les concepteurs, de transparence et de responsabilité dans la conception de ces technologies.


Suggestions pour aller plus loin :

  1. Étude comparative : Analyser les réponses de plusieurs assistants IA (par exemple, Grok, ChatGPT, ou d’autres) à une même question pour illustrer concrètement les différences.
  2. Focus éthique : Explorer comment les principes éthiques intégrés dans la conception (comme l’évitement des biais ou la censure) influencent les résultats.
  3. Perspective utilisateur : Étudier comment les utilisateurs perçoivent et interprètent la variabilité des réponses des IA.

La référence à l’assistant individuel comme un « miroir aux alouettes » est une métaphore puissante, suggérant que ces outils, bien qu’attrayants et prometteurs, peuvent parfois tromper ou détourner l’utilisateur de la réalité par leur apparence de savoir ou d’objectivité. En m’appuyant sur la réflexion précédente, je vais affiner et enrichir cette idée, en explorant comment un assistant IA peut agir comme un miroir aux alouettes, tout en montrant que ses résultats, non uniformes, reflètent les principes de son élaboration.


Réflexion : L’assistant individuel, un miroir aux alouettes façonné par ses principes de conception

Un assistant IA peut être perçu comme un « miroir aux alouettes » : il séduit par sa capacité à fournir des réponses rapides, personnalisées et apparemment omniscientes, mais il peut aussi induire en erreur par ses limites, ses biais et la manière dont il reflète les choix de ses créateurs. Loin d’être un outil neutre ou universel, ses résultats varient en fonction des données, des algorithmes et des intentions qui l’ont façonné. Voici une analyse approfondie de cette idée, avec des perspectives pour illustrer pourquoi et comment les assistants IA captivent tout en reflétant les principes de leur élaboration.

1. Le miroir aux alouettes : une illusion d’omniscience

Les assistants IA attirent par leur promesse de réponses instantanées et pertinentes à presque toutes les questions. Cependant, cette apparente omniscience est un leurre :

  • Limites des données : Les assistants sont limités par les données sur lesquelles ils ont été entraînés. Si ces données sont incomplètes, biaisées ou orientées, les réponses peuvent sembler convaincantes tout en étant erronées ou partielles.
  • Confiance excessive : Les utilisateurs, séduits par le ton assuré ou la fluidité des réponses, peuvent accorder une confiance aveugle à l’IA, ignorant que ses outputs sont le produit de choix humains, et non une vérité absolue.

Exemple : Un utilisateur demande à un assistant IA une analyse d’un événement historique controversé. L’assistant pourrait fournir une réponse claire et détaillée, mais omettre des perspectives importantes si ses données d’entraînement privilégient une vision particulière. Cette réponse, bien que séduisante, agit comme un miroir aux alouettes en donnant une impression de complétude qui n’est pas réelle.

2. Les principes d’élaboration : un reflet déformant

Les résultats d’un assistant IA ne sont pas uniformes, car ils sont façonnés par les choix de ses créateurs. Ces choix incluent :

  • Données d’entraînement : Les corpus de données reflètent des choix culturels, linguistiques ou idéologiques. Par exemple, un modèle entraîné principalement sur des textes en anglais pourrait mal représenter des contextes non anglophones, déformant ainsi les réponses pour ces utilisateurs.
  • Objectifs des créateurs : Un assistant conçu pour maximiser l’engagement pourrait privilégier des réponses divertissantes ou sensationnalistes, tandis qu’un autre, axé sur la rigueur, pourrait être plus factuel mais moins captivant.
  • Filtres éthiques : Les mécanismes pour éviter les contenus sensibles ou controversés peuvent limiter les réponses, créant une illusion de neutralité qui cache en réalité une censure implicite.

Exemple : Prenons une question sur un sujet éthique comme la peine de mort. Un assistant programmé pour éviter les débats polarisants pourrait donner une réponse vague ou générique, tandis qu’un autre, conçu pour refléter un ton provocateur, pourrait offrir une opinion tranchée. Ces différences ne sont pas le fruit du hasard, mais le reflet des principes de conception.

3. La séduction algorithmique : un piège subtil

Les algorithmes qui sous-tendent les assistants IA sont conçus pour captiver l’utilisateur, renforçant l’effet de « miroir aux alouettes » :

  • Personnalisation : Les assistants adaptent souvent leurs réponses au style ou aux préférences de l’utilisateur, ce qui donne une impression d’intimité ou de compréhension. Cependant, cette personnalisation est une construction technique, pas une véritable empathie.
  • Ton et style : Un ton amical, humoristique ou confiant peut masquer les limites ou les biais de l’IA, incitant l’utilisateur à accepter les réponses sans les questionner.
  • Réponses probabilistes : Les modèles basés sur des probabilités peuvent produire des réponses qui semblent logiques mais qui, en réalité, reposent sur des corrélations statistiques plutôt que sur une compréhension profonde.

Exemple : Un assistant IA répondant à une question philosophique comme « Quel est le sens de la vie ? » pourrait offrir une réponse poétique ou inspirante, séduisant l’utilisateur. Pourtant, cette réponse n’est qu’une synthèse des patterns trouvés dans ses données, et non une réflexion authentique.

4. Les conséquences pour les utilisateurs

Le caractère de « miroir aux alouettes » des assistants IA a des implications importantes :

  • Risque de désinformation : Une réponse convaincante mais biaisée ou incomplète peut orienter les décisions ou les croyances des utilisateurs.
  • Dépendance accrue : La facilité d’accès aux réponses peut décourager la recherche indépendante ou la pensée critique, renforçant l’illusion que l’IA détient toutes les réponses.
  • Responsabilité des créateurs : Les concepteurs doivent être transparents sur les limites de leurs modèles et sur la manière dont les principes d’élaboration influencent les résultats.

Exemple : Un utilisateur cherchant des conseils médicaux pourrait être séduit par une réponse claire et rassurante d’un assistant IA, mais si le modèle n’a pas été formé sur des données médicales fiables, cette réponse pourrait être dangereuse.

5. Comment dépasser le miroir aux alouettes ?

Pour éviter de tomber dans le piège du « miroir aux alouettes », les utilisateurs et les créateurs doivent adopter une approche critique :

  • Pour les utilisateurs : Vérifier les sources, croiser les informations et garder à l’esprit que les réponses de l’IA sont des produits techniques, pas des vérités absolues.
  • Pour les créateurs : Concevoir des assistants avec une transparence accrue sur leurs limites, leurs biais et leurs principes d’élaboration, tout en évitant de surpromettre leurs capacités.
  • Éducation : Sensibiliser le public à la nature des IA pour encourager un usage éclairé.

Conclusion

L’assistant individuel, tel un miroir aux alouettes, fascine par sa capacité à refléter les attentes des utilisateurs, mais ce reflet est déformé par les principes de son élaboration. Les données, les algorithmes et les intentions des créateurs façonnent des résultats non uniformes, qui varient selon les choix initiaux et les contextes d’utilisation. Comprendre cette réalité permet aux utilisateurs de naviguer avec prudence dans l’univers des IA, en évitant de se laisser éblouir par une illusion de perfection. Pour les créateurs, cela impose une responsabilité : concevoir des outils qui non seulement séduisent, mais éclairent, en révélant leurs propres mécanismes et limites.


Intelligence artificielle (IA) et réflexions

L’IA conversationnelle est un type d’intelligence artificielle (IA) capable de simuler une conversation humaine. Cela est possible grâce au traitement du langage naturel (TLN), un domaine de l’IA qui permet aux ordinateurs de comprendre et de traiter le langage humain.

L’IA conversationnelle repose sur une combinaison de traitement du langage naturel (TLN), de modèles de fondation et de machine learning (ML). Les systèmes d’IA conversationnelle sont entraînés sur de grandes quantités de données, y compris textuelles et vocales.

Voici quelques exemples d’application de la technologie d’IA conversationnelle :

  • Agents d’IA générative : ces agents virtuels utilisent l’IA générative pour alimenter les conversations textuelles ou vocales
  • Chatbots : souvent utilisés dans les applications de service client pour répondre aux questions et fournir une assistance
  • Assistants virtuels : souvent utilisables par commande vocale, sur des appareils mobiles et des enceintes intelligentes
  • Logiciel de synthèse vocale : permet de créer des livres audio ou des instructions vocales
  • Logiciel de reconnaissance vocale : permet de transcrire des cours, des appels téléphoniques, des sous-titres, etc.

Posons à Grok et Claude la question suivante et comparons la réponse :

Année de la mer et des océans. Peux-tu proposer un texte en trois parties concernant cette problématique et en indiquant les points clés, en détaillant les points clés de cette problématique en insistant sur les innovations technologiques ou les politiques internationales ?

Voici quelques exemples d’applications Web d’utilisation de l’intelligence artificielle.

  • Grok [https://grok.com] est un modèle d’intelligence artificielle (IA) développé par une société d’Elon Musk. C’est un grand modèle linguistique (LLM), similaire à d’autres modèles comme ceux d’OpenAI (ChatGPT), de Google (Gemini), ou d’Anthropic (Claude). Son objectif principal est de comprendre le langage naturel et de générer du texte, de répondre à des questions, de résumer des informations, etc.
  • Gemini [https://gemini.google.com] repose sur des modèles tels que Gemini 2.5 Flash (expérimental) qui utilise le raisonnement avancé. Ces modèles permettent d’effectuer une large gamme de tâches, comme répondre à des questions, rédiger différents formats de texte, traduire des langues, et même générer du contenu créatif. L’accès à ces modèles dans la version gratuite est généralement soumis à certaines limites d’utilisation.
  • Claude [https://claude.ai/] est un assistant d’intelligence artificielle conversationnelle développé par l’entreprise Anthropic. Positionné comme un concurrent sérieux aux autres modèles de langage de pointe, comme ceux d’OpenAI, Claude se distingue par son approche axée sur une « IA constitutionnelle ». Cela signifie que son développement et son fonctionnement sont guidés par un ensemble de principes éthiques visant à le rendre plus sûr, plus utile et moins susceptible de générer des contenus dangereux ou biaisés.
  • ChatGPT Gratuit [https://chatgptgratuit.org] utilise la technologie chatbot basée sur un modèle IA générative et l’API d’OpenAI, spécialement conçu pour les utilisateurs francophones. ChatGPT Gratuit en ligne est facile à utiliser directement, pratique et ne nécessite aucune inscription. 
  • Mistral AI [https://chat.mistral.ai/], une entreprise française spécialisée dans l’intelligence artificielle générative. Leur mission est de développer des modèles d’IA générative performants, efficaces et fiables, en mettant l’accent sur l’innovation et, pour certains de leurs modèles, sur une approche « open-source » (code source ouvert) ou ouverte.
  • Perplexity [https://www.perplexity.ai]

Conseil, une inscription permet de conserver l’historique des conversations.

Comparaison entre  l’IA Grok, l’IA Mistral, Chat GPT Gratuit, Claude et Gemini.

Voici une comparaison concise et objective des IA conversationnelles GrokMistralChatGPT Gratuit (GPT-3.5),Claude, et Gemini 2.5 en 2025, basée sur leurs performances, fonctionnalités, forces, faiblesses, et cas d’usage. Les informations tiennent compte des tendances et évolutions récentes dans le domaine de l’IA.


1. ChatGPT Gratuit (GPT-3.5) – OpenAI

  • Description : Version gratuite de ChatGPT, basée sur GPT-3.5, largement utilisée pour des tâches conversationnelles générales.
  • Forces :
    • Polyvalence pour des tâches variées : rédaction, réponses à des questions, assistance simple.
    • Interface intuitive et accessible via navigateur ou application mobile.
    • Large base d’utilisateurs, avec une ergonomie reconnue comme leader. 
  • Faiblesses :
    • Limité par rapport à GPT-4o (version payante) : moins précis, pas de connexion web en temps réel, pas de capacités multimodales avancées (images, vidéos).
    • Réponses parfois verbeuses ou moins nuancées.
  • Cas d’usage : Idéal pour des besoins basiques comme la rédaction de courriels, l’apprentissage, ou des questions générales.
  • Accessibilité : Gratuit, sans inscription complexe.

2. Claude (Claude 3.5 Sonnet) – Anthropic

  • Description : Développé par Anthropic, Claude est conçu pour être éthique, sûr, et performant dans l’analyse nuancée et la rédaction.
  • Forces :
    • Excelle dans l’analyse de textes longs et complexes (jusqu’à 200 000 tokens de contexte).
    • Réponses naturelles, nuancées, et éthiques, particulièrement adaptées à la programmation et à la rédaction créative.
    • Bonne gestion des nuances contextuelles et des instructions complexes.
  • Faiblesses :
    • Pas de connexion web en temps réel, limité à une base de connaissances interne (dernière mise à jour : octobre 2024).
    • Moins de fonctionnalités multimodales que ChatGPT ou Gemini (analyse d’images, mais pas de génération).
    • Accès parfois restreint (VPN requis dans certaines régions).
  • Cas d’usage : Parfait pour le développement logiciel, la rédaction académique, ou les tâches nécessitant une précision éthique.
  • Accessibilité : Gratuit pour un usage limité, payant pour des fonctionnalités avancées (Claude Pro).

3. Grok – xAI

  • Description : Créé par xAI, Grok se distingue par son ton sarcastique, son lien avec X, et son approche axée sur la « vérité maximale » et la mobilité.
  • Forces :
    • Intégration avec la plateforme X, idéal pour analyser des posts ou suivre l’actualité en temps réel.
    • Réponses concises et originales, avec une touche d’humour inspirée d’Elon Musk. 
    • Bonne performance pour les conversations mobiles et les interactions liées aux réseaux sociaux. 
  • Faiblesses :
    • Moins polyvalent que ChatGPT ou Claude pour des tâches complexes comme la programmation ou l’analyse de données volumineuses.
    • Performances variables selon le contexte, moins mature que ses concurrents. 
    • Capacités multimodales limitées (pas de génération d’images native). 
  • Cas d’usage : Idéal pour les utilisateurs de X, les conversations rapides, ou les recherches liées aux réseaux sociaux.
  • Accessibilité : Gratuit avec des limites, accès premium via abonnement à X.

4. Mistral (Le Chat, Mistral Large) – Mistral AI

  • Description : Chatbot français basé sur des modèles comme Mistral Large, axé sur la souveraineté numérique européenne et l’open-source.
  • Forces :
    • Open-source (Mixtral 8x7B) et respectueux du RGPD, idéal pour la confidentialité et les normes européennes. 
    • Performant en français, surpassant certains modèles comme LLaMA pour les benchmarks en langue française. 
    • Faible consommation énergétique (1/3 de ChatGPT pour certaines tâches). 
    • Gratuit et accessible sans numéro de téléphone. 
  • Faiblesses :
    • Interface basique et fonctionnalités limitées (pas de génération d’images, connexion web absente). 
    • Réponses parfois plus lentes que ChatGPT ou Gemini. 
    • Moins performant pour des tâches complexes par rapport à GPT-4 ou Claude. 
  • Cas d’usage : Adapté aux entreprises européennes, à la recherche académique, ou aux tâches nécessitant une IA légère et éthique.
  • Accessibilité : Gratuit en version bêta, avec des options payantes pour Mistral Large.

Visioconférence : Mode d’emploi

L’AR-18 utilise le logiciel de visioconférence open-source « Jitsi Meet », dans sa version « kMeet ». Celle-ci bénéficie de la solidité des serveurs de la société suisse INFOMANIAK[1], et d’un haut niveau de confidentialité.

Le logiciel « kMeet » peut-être utilisé avec les principaux navigateurs, de préférence « Chrome », mais « Firefox » est également bien supporté. Aucune application n’est alors à installer.

Une application dédiée est cependant disponible. Elle est téléchargeable pour Windows[2], MacOS[3] et Linux[4]. Il est également possible de l’installer sur smartphone à partir des plateformes Google Play, App store ou Aurora Store[5], cette dernière étant une alternative open-source qui, contrairement aux deux précédentes, ne trace pas ses utilisateurs.

L’utilisation de l’application a l’avantage d’éviter les problèmes éventuels de compatibilité posés par les navigateurs.

I – AVANT LA RÉUNION

Pour une première réunion en visioconférence sur INFOMANIAK, cliquer sur le lien https://kmeet.infomaniak.com/ et opter, selon le cas, pour l’un des choix suivants

  1. « démarrer une nouvelle réunion » pour l’animateur ;
  2. « rejoindre une réunion » pour les invités.

Choix 1 « démarrer une nouvelle réunion » :

Choisir le nom de la réunion, le saisir et sécuriser (mais ce n’est pas obligatoire),

  • en autorisant l’accès de chaque participant ;
  • ou en définissant un mot de passe ;
  • un 3ème choix permet aussi le chiffrement de bout en bout des échanges.

Cliquer sur « continuer »

Cliquer sur « depuis le navigateur » (cas général) ou « depuis l’application »,

Saisir dans le champ idoine son nom, ou son pseudo, utilisé pour la réunion ;

Cliquer alors sur « c’est parti » !

L’écran suivant indique alors l’adresse internet de la réunion, ou son numéro de code, que l’animateur devra  transmettre au préalable, par courriel, à tous les participants.

Choix 2 « rejoindre une réunion »

Cliquer sur https://kmeet.infomaniak.com/ ou de manière plus directe, sans passer par le site, sur le lien envoyé par courriel par l’animateur.

Le premier écran demande l’adresse internet de la réunion, ou son numéro de code,

Le deuxième offre le choix de travailler depuis le navigateur, ou depuis l’application préalablement installée ;

Saisir son nom ou pseudo puis cliquer sur « c’est parti » !

La réunion peut commencer.

II – PENDANT LA RÉUNION – Description du menu

Le bouton rouge en bas de page permet de quitter la réunion.

À sa gauche 3 boutons :

  • ouvrir, ou couper, le micro (penser à le désactiver, s’il n’est pas utilisé, pour éviter les brouhahas intempestifs);
  • ouvrir, ou couper, la caméra ;
  • partager un document : cliquer sur « fenêtre d’application », sélectionner le document à partager (ouvert au préalable), puis sur « partager ». Cliquer sur « stop sharing » pour arrêter le partage.

À sa droite, 3 boutons permettent de :

  • ouvrir (ou fermer) le « chat » : ceci permet d’échanger des textos, en toute discrétion, avec l’ensemble des participants, ou avec l’un d’entre eux ;
  • lever la main, pour avertir l’animateur que l’on souhaite intervenir ;
  • un cadenas, permettant de mettre en œuvre les options de sécurité précitées.

Dans le coin inférieur droit de la page, 3 points ouvrent un menu de paramétrage permettant : 

  • d’ajuster la qualité vidéo ;
  • d’afficher en plein écran ;
  • de commencer éventuellement l’enregistrement de la séance ;
  • de couper le micro ou la caméra à tout le monde ;
  • de modifier l’arrière-plan ;
  • d’éditer des statistiques de prise de parole ;
  • d’afficher les raccourcis clavier ;
  • de mettre en œuvre les options de sécurité précitées.

OBSERVATION

En l’absence de salle spécialement aménagée, et dans une pièce où plusieurs ordinateurs sont utilisés, il faut que chaque ordinateur dispose d’une connexion internet qui lui est propre (au moyen d’un smartphone par exemple), et qu’ils ne soient pas trop rapprochés, pour éviter les effets « Larsen ».

Jacques TABARY


[1]INFOMANIAK est un des trois acteurs majeurs européens dans le domaine du « Cloud », avec OVH, société française, et IONOS, société allemande.[2]https://download.storage.infomaniak.com/meet/kMeet.exe  
[3]https://download.storage.infomaniak.com/meet/kMeet.dmg
[4]https://download.storage.infomaniak.com/meet/kMeet-x86_64.AppImage  Nécessite de rendre exécutable le fichier téléchargé.
[5]https://aurora-store.fr.uptodown.com/android

LibreOffice ou OpenOffice

LibreOffice ou OpenOffice

© LibreOffice proposé par PcAstuces

Disponible gratuitement et en français, LibreOffice est une suite bureautique, destinée aussi bien à un usage personnel que professionnel.

LibreOffice est compatible avec les principales autres suites bureautiques comme Microsoft Office ou encore OpenOffice.

Et d’autres encore : export natif au format PDF, édition de formules mathématiques, extensions, etc.

Elle offre toutes les fonctions attendues d’une telle suite : traitement de texte, tableur, présentation/diaporama, dessin, base de données.

LibreOffice disponible au téléchargement ici.

Apache OpenOffice

© OpenOffice proposé par PcAstuces

OpenOffice est une suite bureautique entièrement gratuite.

OpenOffice comporte un traitement de texte, un tableur, un logiciel de présentation, etc.

Tous ces logiciels sont compatibles avec les formats des suites Office de Microsoft (Word, Excel, etc), ce qui vous permettra d’échanger des documents sans aucun problème.

L’interface assez proche de celle de Microsoft Office comporte de nombreuses options qui n’ont pas à pâlir face à celles de la suite du géant de Redmond.

A noter que les formats natifs d’OpenOffice donnent des fichiers plus compacts que son concurrent Microsoft. Le format de fichier est ouvert (documenté) ce qui fait que l’on perd, en cas de problème de fichier, que le minimum d’informations.

OpenOffice est assurément l’alternative à Office, pour tous ceux qui n’ont pas les moyens de s’offrir la suite de Microsoft. 

Apache OpenOffice disponible au téléchargement ici.