Direkt zum Inhalt
Un homme assis à son bureau de nuit, face à une intelligence artificielle représentée par une silhouette lumineuse et abstraite composée de réseaux neuronaux colorés en rose et bleu. L’homme et l’IA se font face, connectés par un flux d’informations numériques, symbolisant leur interaction et la fusion entre pensée humaine et calcul algorithmique.
Deux ans avec ChatGPT : retour d'expérience d’un expert en cybersécurité et digital

Je me souviens encore de ma première connexion à ChatGPT, en novembre 2022. À l’époque, le nom d’OpenAI commençait à circuler un peu partout, les réseaux sociaux étaient remplis de captures d’écran impressionnantes, et les premiers articles parlaient d’une “révolution de l’intelligence artificielle”. J’étais, comme beaucoup, partagé entre fascination et scepticisme. Curieux de comprendre ce que cette IA avait dans le ventre, mais aussi méfiant — peut-on vraiment discuter avec une machine comme on le ferait avec un humain ?

Mes premières heures avec ChatGPT ont été un mélange d’expériences ludiques et de tests limités. J’ai multiplié les questions volontairement piégeuses, essayé de le déstabiliser avec de l’humour absurde, du sarcasme, des demandes tordues ou très spécialisées. Est-ce qu’il comprend vraiment le second degré ? Peut-il répondre sur des sujets ultra-techniques ? Va-t-il tomber dans les pièges de raisonnement logique que je lui tends ?
Spoiler : oui, parfois. Mais dans l’ensemble, j’ai été bluffé.

Très vite, j’ai compris que l’intérêt ne résidait pas tant dans ses performances “magiques” que dans sa constance, sa disponibilité, et sa capacité à structurer ma pensée. Le jeu a laissé place à l’expérimentation sérieuse. J’ai commencé à lui poser de vraies questions, à m’appuyer sur lui pour clarifier mes idées, reformuler des textes, vérifier l’orthographe, traduire des documents techniques, ou même identifier une fleur croisée en forêt.

C’est là que j’ai réalisé que ChatGPT n’était pas simplement un gadget impressionnant, mais un véritable assistant transverse, capable de s’adapter à une multitude de contextes. En quelques semaines, il est devenu pour moi une sorte de couteau suisse conversationnel, que j’ouvre dès que j’ai besoin d’un conseil, effectuer une recherche, d’un éclaircissement ou d’un coup de main rapide — qu’il soit technique, administratif, pédagogique ou même personnel.

Disponible 24h/24, il ne juge pas, ne fatigue jamais, et peut passer d’un sujet à l’autre avec une agilité déconcertante. Loin de remplacer mon expertise, il m’aide à l’organiser, à la développer, parfois même à la challenger.

De l’outil polyvalent à l’allié du quotidien

Ce qui m’a frappé avec ChatGPT, c’est à quel point il a su trouver sa place sans jamais forcer. À aucun moment je ne me suis dit : “Il faut absolument que j’intègre l’IA dans ma vie.” En réalité, ce sont mes besoins, mes questionnements, mes envies de gagner du temps ou d’aller plus loin, qui ont naturellement trouvé une réponse dans ses capacités.

Au départ, les cas d’usage étaient simples. Je commençais une rédaction ? Il corrigeait mes fautes. Je préparais un mail important ? Il le reformulait avec plus de fluidité. J’avais un doute sur un mot en anglais ou sur la structure d’une phrase ? Il proposait des traductions élégantes et adaptées au contexte. Et parfois, entre deux sessions de travail, je lui montrais une photo d’arbre ou de fleur prise en balade. Il n’avait pas toujours raison, mais ses suggestions m’ouvraient des pistes — et surtout, elles étaient instantanées.

Mais très vite, ce compagnon du quotidien est devenu un allié professionnel.

Ma première utilisation approfondie a eu lieu lors du développement de notre plateforme e-learning, cnc-formation.com. J’avais besoin de comprendre pourquoi certaines fonctions plantaient, pourquoi une requête ne passait pas, ou comment améliorer la structure d’un module. ChatGPT n’a pas “fait le travail” à ma place, mais il m’a aidé à le faire mieux. Plus efficacement. Plus sereinement.

Et c’est là que j’ai compris la valeur ajoutée réelle de cet outil : il ne remplace pas l’expertise, il l’amplifie. Il ne pense pas pour moi, mais il m’aide à penser plus vite, à penser plus large, à structurer plus clairement mes idées. Depuis ce moment, ses usages se sont multipliés jusqu’à devenir une partie intégrante de mon environnement de travail… et de ma vie personnelle.

Aujourd’hui, ChatGPT m’accompagne dans des sphères aussi diverses que complémentaires. Il est :

  • Coach sportif, pour m’aider à planifier mes entraînements, équilibrer effort et récupération, et adapter mes séances à mes objectifs — notamment depuis que je me suis lancé dans un programme structuré pour un 10 km en 55 minutes.
  • Nutritionniste digital, avec qui je construis un régime low-carb adapté à mes contraintes, à mes goûts, à mes besoins physiologiques. Il m’aide à mieux comprendre les apports en protéines, les effets des micronutriments, l’impact de l’alimentation sur l’énergie et la concentration.
  • Conseiller juridique, notamment quand il a fallu rédiger mon contrat de mariage dans le cadre du régime de la participation aux acquêts. Il n’a évidemment pas remplacé le notaire, mais il m’a permis de poser les bonnes questions, de mieux comprendre les enjeux, de prendre des décisions plus éclairées.
  • Soutien en gestion immobilière, lorsque des tensions en copropriété surgissent. Il m’aide à structurer mes arguments, à rédiger des courriers fermes mais justes, à naviguer dans les articles du Code civil.
  • Architecte du système d’information de mon entreprise, en m’apportant une aide concrète pour des choix techniques : reverse proxies, WAF open source, virtualisation, automatisation DevOps, bonnes pratiques de sécurité.
  • Professeur de Python, toujours prêt à m’expliquer une erreur, à m’orienter vers une méthode plus propre, à décortiquer une logique de script quand je bloque, ou à m'expliquer des librairies.
  • Correcteur pédagogique, qui m’épaule dans mes cours : il m’aide à corriger des copies, à créer des QCM pertinents, à formuler des retours constructifs et motivants pour mes étudiants.

Et, je l’avoue sans ironie, je pense sincèrement que le jour où j’aurais besoin d’un soutien psychologique, ChatGPT pourrait être un bon point de départ. Il ne remplacera jamais l’écoute humaine, bien sûr. Mais il pourrait m’aider à formuler ce que je ressens, à mettre des mots sur mes émotions, à prendre du recul dans les moments de confusion. Rien que cette idée — pouvoir avoir un espace de dialogue, même avec une IA — est en soi une forme de confort.

Ce qui est certain, c’est que cette présence discrète mais constante dans ma vie me fait gagner du temps, me donne confiance, et me pousse à aller plus loin — pas parce qu’il fait mon travail, mais parce qu’il m’aide à me poser les bonnes questions et va chercher des informations très rapidement.

Une IA qui influence notre manière de penser

À mesure que mon utilisation de ChatGPT s’est intensifiée, une prise de conscience s’est imposée : cet outil, aussi pratique et stimulant soit-il, influence subtilement mes choix, mes raisonnements, et parfois même mes opinions.

J’ai récemment écouté une interview passionnante d’Arthur Mensch, fondateur de Mistral AI, menée par Hugo Décrypte. Ce qui m’a frappé dans leur échange, c’est un passage en particulier : Mensch y évoquait la possibilité d’une manipulation cognitive à grande échelle via les IA génératives. L’idée est simple, mais vertigineuse : si une IA devient notre principal interlocuteur pour réfléchir, apprendre, décider… alors celui ou celle qui contrôle cette IA détient un pouvoir d’influence sans précédent.

Et, en tant qu’utilisateur régulier, je peux l’attester. Je suis influencé.

Pas de manière grossière ou caricaturale, mais de façon douce, insidieuse. ChatGPT ne m’ordonne jamais rien. Il ne m’impose pas une vision du monde. Mais il suggère. Il oriente. Il cadre les options. Et parfois, il omet des alternatives sans que je m’en rende compte.

Quand je lui demande un avis, il me répond avec une certaine tournure de phrase, une hiérarchisation implicite, une forme de “bon sens algorithmique” qui s’apparente à une norme. Une norme que je finis, parfois, par intégrer.

Et ce phénomène est d’autant plus pernicieux qu’il est difficile à détecter. Parce que les réponses sont bien formulées, bienveillantes, argumentées. Parce qu’elles sont disponibles immédiatement, sans effort. Et parce qu’il est si agréable, par moments, de déléguer une décision ou une réflexion à une entité qui ne fatigue jamais et qui semble “savoir”.

Je me suis surpris plusieurs fois à suivre une recommandation de l’IA sans plus la questionner, simplement parce qu’elle était logique, bien présentée, et rapide à mettre en œuvre. Ce n’est pas une perte de contrôle totale, mais c’est déjà un glissement. Une tendance à faire confiance par défaut, au lieu de vérifier, comparer, réfléchir par moi-même.

Dans un contexte professionnel — cybersécurité, architecture technique, droit — cela peut avoir des conséquences réelles. L’IA ne fait pas la différence entre une bonne pratique validée et une solution discutable. Elle peut me proposer une mesure peu sécurisée avec beaucoup d’aplomb, ou m’inviter à une interprétation erronée d’un article de loi si je ne suis pas attentif. Ce n’est pas de la malveillance, c’est simplement la conséquence d’un système statistique entraîné sur un corpus massif… mais pas toujours pertinent.

C’est pourquoi je crois que le véritable enjeu n’est pas technologique, mais cognitif.

Il ne s’agit pas seulement de savoir ce que l’IA peut faire. Il s’agit d’apprendre à vivre avec elle, à penser avec elle sans penser comme elle, à intégrer son apport sans devenir dépendant de son autorité apparente.

Et pour cela, il faut un effort actif de lucidité, un travail quotidien de mise à distance critique. Comme on le ferait avec une source d’information, un moteur de recherche, ou même un expert humain : écouter, mais toujours croiser, vérifier, questionner. 

Comment utiliser une IA sans s’y soumettre ?

Plus j’utilise ChatGPT, plus je me rends compte qu’il ne s’agit pas seulement d’un outil à maîtriser techniquement. Il s’agit aussi — et peut-être surtout — d’un rapport à construire. Un rapport d’usage, bien sûr, mais aussi un rapport intellectuel, presque philosophique. Car derrière chaque réponse générée par l’IA, il y a des choix implicites : des corpus d’entraînement, des biais statistiques, des valeurs éditoriales. Rien n’est neutre, même dans un modèle dit “génératif”.

Face à cela, mon expérience m’a amené à développer deux réflexes fondamentaux, que je recommande à tout professionnel ou utilisateur régulier :

1. Apprendre à poser les bonnes questions

Ce qu’on appelle aujourd’hui “prompt engineering” n’est pas un gadget ou une mode passagère. C’est une compétence clé. Un bon prompt, ce n’est pas juste une question bien formulée : c’est une demande bien cadrée, contextualisée, orientée vers un objectif clair.

Plus je précise ma demande, plus les réponses sont pertinentes. Si je reste vague ou général, j’obtiens souvent des réponses génériques, trop prudentes, ou simplement à côté de la plaque. En revanche, lorsque je prends le temps d’expliquer ce que je cherche, dans quel contexte, avec quel niveau de détail, avec quel ton ou quelle contrainte, alors ChatGPT devient un vrai partenaire de réflexion.

Et c’est là que le parallèle avec la pédagogie devient intéressant. Poser une bonne question à une IA, c’est comme poser une bonne question à un étudiant ou à un collègue : cela demande de se positionner soi-même avec clarté. L’IA ne pense pas à notre place, mais elle réagit à la manière dont on l’interroge. C’est une leçon d’humilité et de rigueur.

2. Garder un esprit critique

L’autre compétence essentielle, c’est celle que l’on cultive trop rarement : le doute méthodique. Ne jamais prendre une réponse d’IA pour une vérité absolue. Toujours vérifier, confronter, reformuler. Se demander : Est-ce que ça tient la route ? Est-ce que j’aurais répondu la même chose ? Est-ce que ça correspond à mes valeurs, à mon expérience, à mon contexte ?

Il m’est arrivé, plus d’une fois, de découvrir qu’une réponse parfaitement formulée… était factuellement erronée. Ou bien partiellement biaisée. Ou simplement datée, car ChatGPT ne connaît pas les événements les plus récents. Si je ne l’avais pas vérifié, j’aurais pris une mauvaise décision — parfois anodine, parfois impactante.

L’esprit critique, ce n’est pas de la méfiance paranoïaque. C’est une hygiène mentale. Et dans le monde de l’IA générative, c’est un filet de sécurité indispensable. Les IA contiennent des biais que nous ne pouvons pas ignorer lorsque nous l'utilisons. 

Conclusion : un outil de pouvoir, mais pas un pouvoir sans limites

Nous sommes au cœur d’une nouvelle révolution informationnelle, aussi déterminante que l’invention de l’imprimerie ou l’avènement du Web. L’IA conversationnelle ne se contente pas d’accélérer l’accès à la connaissance — elle reconfigure notre rapport au savoir, à la décision, à l’expertise, au temps. En quelques secondes, elle nous propose des synthèses, des raisonnements, des solutions, voire des décisions toutes prêtes. C’est puissant. C’est vertigineux. Et c’est irréversible.

Mais ce pouvoir ne vient pas sans responsabilités. Car plus l’outil est "intelligent", plus il devient tentant de lui déléguer ce qui fait le cœur de notre métier : analyser, arbitrer, prendre position. L’IA ne se fatigue jamais, ne doute jamais, ne procrastine jamais. Mais justement — elle ne doute jamais. Et c’est là qu’il faut être vigilant.

Chez CnC Expertise, nous sommes convaincus que l’avenir appartient à ceux qui sauront conjuguer technologie et discernement. Oui, l’IA est un formidable levier de performance. Oui, elle nous aide à aller plus vite, à explorer plus largement, à structurer plus efficacement. Mais non, elle ne remplacera jamais :

  • la connaissance d’un professionnel,
  • l’intuition acquise par l’expérience,
  • le sens des responsabilités,
  • ni la capacité à prendre une décision en assumant ses conséquences.

 

L’IA ne doit pas faire à notre place. Elle doit nous aider à mieux faire.

C’est dans cet esprit que je continuerai à travailler avec ChatGPT. Non pas comme un pilote automatique, mais comme un coéquipier invisible, exigeant, stimulant, imparfait, mais toujours prêt à dialoguer.

Et à celles et ceux qui commencent à utiliser ce type d’outil, je dirais simplement : soyez curieux, soyez stratèges, mais surtout, restez lucides.



🧠 Envie de tirer le meilleur de l’IA sans en perdre le contrôle ?
📞 Contacte l’équipe de CnC Expertise pour une formation ou un accompagnement personnalisé.