Writing With Machines / Écrire avec des machines
Creativity and the limits of AI / Créativité et limites de l'IA
La version française de ce texte figure ci-dessous
I’ve written over 125 blog post since early 2023. Some were deeply personal while others were neutral; some were critical, humorous or even satirical. All were reflective, grounded in my experience as a professor, a bioethicist, and a department head navigating the messy realities of academic life.
Long a fan of AI-supported language translation, I’ve been using DeepL systematically to translate all my posts into French, prior to correction with Antidote and then final human validation by my wife. Although I’m bilingual and comfortable working in French, my grammar and expressions will never be perfect. I use these two language tools daily to write emails and produce other documents in French for my work as a professor at the Université de Montréal — they’re not perfect, but they’re much better than what I could do alone.
Over the past six months, I’ve been experimenting with different uses of what for me is a new writing tool, that is, using Copilot (Microsoft 365, provided by my institution) and occasionally ChatGPT to help translate ideas into text.
I remain critical of the hype surrounding generative AI. In my capacity as a technology ethicist and member of the OBVIA, I’ve participated in numerous reflections about the social, ethical, economic and environmental implications of AI. Further, like many educators, I worry about the impact of the use of these tools on the learning environment, whether it’s an increase in cheating or simply, and equally problematic, a contributing factor to intellectual laziness and a dumbing down of students’ analytic abilities and writing skills.
Yet, I also believe that thoughtful engagement with these tools can enrich our research and teaching practices, and even our writing — but only if we’re honest and transparent about how we use these tools, and clear about their limits. We should, I suggest, see generative AI as dual-use technologies that can be used for good or for ill.
Here I reflect not on the full scope of concerns raised by generative AI — and there are many! Instead, I focus on how I’m using them productively in my own writing, where I see limits, and what these entail for the inevitable use of AI in academia and society at large.
When the Notes Are There, But the Story Isn’t
I write from notes that are messy, sprawling, half-formed fragments of ideas that accumulate over weeks or months. Due to my dyslexia and aphantasia, I can never “imagine” a complete text in my head because I don’t visualize; and because I think as I write or talk, I never work off a plan. So while I sometimes know exactly what I want to write for a blog post, and the text flows naturally, at other times I have pages of material but no clear thread or story line to tie it all together.
This is where Copilot has been incredibly helpful.
Following an initially positive experiment, I’ve started feeding the AI a set of notes — sometimes bullet points, sometimes entire paragraphs — and asked it to suggest a structure and then draft the post. Copilot has helped me find the story to explain my ideas, offered narrative arcs and transitions, suggested fictional examples and creative forms, and even produced entire paragraphs that helped me see the shape of the piece I was trying to write.
At the suggestion of a friend who was much more experienced with generative AI, I fed in examples of previous posts that I’d written without AI and then asked it to build a writing-style template, which I then tweaked to fit my personal writing style and aesthetic. The resulting Copilot-generated draft is a surprisingly close fit — but it’s far from perfect.
Even when I’ve started with large chunks of text instead of notes, the results are always incomplete and sometimes superficial. Copilot also sometimes makes connections or suggestions that I don’t want. As a rough estimate, I’d say that when it’s started from a page of notes (which are in no particular order, because they’re generated free-form), the result is about 80% to the final text. But I would never be satisfied with this first draft — because that’s what it is, a draft, not a final text. It’s simply not good enough to publish.
After using this approach in more than 20 posts, and having been concerned that I might be losing my voice to one generated by an AI, I’m now confident that the texts I’ve produced are still my own, even if some of the creative approach has changed. The initial ideas and tone are mine. The structure or narrative are suggested by Copilot. The final texts are all rewritten, expanded, and clarified by me to varying degrees — over the space of hours, days, or weeks, as per my habitual writing practice — until they are once again my own.
I’m not outsourcing my creativity with an AI — it’s providing scaffolding for my ideas and my words, but my integrity demands that I rethink and approve every sentence. The machine gives me a starting point, but the work is mine, as too is the responsibility for what I write.
Satire, Style, and Explicit Collaboration
In some cases, the collaboration with Copilot has been so creative and so unexpected that I’ve credited it explicitly in the published post. While I’ve had the liberty in my academic career to be able to play with many different writing styles, I’m a diehard fan of fantasy and science fiction, and I strongly encourage creative communication in academic writing, I’m not at heart an artist or fiction writer. There are pieces that I could never have written alone without the support of a generative AI. Below are three examples:
Dealing with Bureaucracy
A choose-your-own-adventure satire of institutional bureaucracy, this post was born from personal frustration. I had the idea, the tone, and the examples — Copilot helped me build the branching structure, the absurd scenarios, and the narrative rhythm. It felt like co-writing with a mischievous colleague who understood the labyrinth of university administration all too well.
Newspeak Revisited
A fictional government memo written in the Orwellian language of 1984, this post parodied bureaucratic ideology and the weaponization of language. Written with two co-authors, we provided the political critique following an online dialogue. Copilot helped us channel the voice of the Ministry of Language Refinement, creating the clipped syntax, euphemistic doublespeak, and chilling clarity of Orwell.
A Jabberwockian Guide to Bad Writing
Inspired by Lewis Carroll, this whimsical critique of academic jargon was a joy to write. Copilot generated playful metaphors, invented words and surreal imagery, all of which I then shaped into a coherent satire. It was a dance between nonsense and meaning, and the AI led the first steps.
These posts were playful, experimental, and unlike anything I could have written by myself. Copilot helped me find a voice — or rather, a set of creative voices — that I didn’t have naturally. And because the creative work was recognizably collaborative, and it went far beyond my own abilities, I acknowledged Copilot explicitly and transparently. But I remained the author, responsible for the content.
Quiet Contributions
Not all uses of Copilot warrant acknowledgment. In many posts, its role has been more subtle — generating metaphors, drafting fictionalized case studies, offering stylistic suggestions. These contributions were raw material, not a finished product. I subsequently transformed them, rewriting extensively, integrating the content into my own voice and narrative, adding examples, sometimes completely restructuring, and always expanding substantially.
In these cases, I didn’t cite Copilot, not because I was hiding its use, but because the final text — in both form and content — was mine, shaped by my thinking, my editing, my rewriting. When the machine’s contribution disappears into the flow of my own writing, it becomes part of the process, not the product. This is no different, I would suggest, from using DeepL for translation or Antidote for spelling and grammar checking. The tools support the work, but they don’t define it.
The Limits of the Prompt
As an educator and a journal editor, I’ve also seen the darker side of AI writing — not only in plagiarism, but also in mediocrity.
AI-generated texts based on simple prompts are invariably superficial, generic, and boring. They lack depth, nuance, and originality. And they often have hallucinations, those errors generated by the AI because it’s good at making connections between words, but it doesn’t fundamentally understand the meaning of what it’s producing.
So while I can’t always prove that a student or an author used AI — because we don’t have effective detection tools and what counts as “legitimate use” is not yet clear — such proof often isn’t needed. Sometimes it’s obvious because the student/author was so lazy that they left the AI prompt at the bottom of the text: yes, I’m serious. More generally, though, the lack of intellectual effort is evident in a fully AI-generated text, and the grade or the review reflects the quality of the work, not the method of its production. It’s just bad writing.
This ethical nuance matters. The problem isn’t so much the tool, it’s the absence of thought and responsibility on the part of the tool user.
The New Literacy
As such, we need to rethink how we teach academic writing, and research skills more generally. AI literacy must become part of academic training, not as a warning — “never use AI” is both unreasonable and unenforceable — but instead as a skill like any other that can be taught and mastered.
Students need to learn how to effectively use tools like Copilot and other generative AI to enhance their thinking, support their research, and improve their writing. But these tools cannot replace the hard work of clear thinking and communication. Writing is a process of reflection, not just production. It’s about grappling with ideas, testing assumptions, and finding your voice. AI can support that process, but only if you know how to use it critically. Students thus have to learn the difference between simply generating text (necessary, but not sufficient) and crafting a coherent and convincing argument.
Institutions for their part need to shift their approach, away from a focus on detection and punishment and towards skills development anchored in mastery and transparency. We need to teach students not just what AI can do, but what it can’t.
Current generative AI are powerful tools, but they’re not magical. They can amplify creativity, clarify structure and improve coherence of a text, but only when this is paired with quality substance at the start, and then an attentive editing by the author. AI can surprise, provoke, and even teach us things, but it cannot (ever?) replace us.
As educators, we must teach our students to write with both integrity and originality.
As authors, we must remain curious, critical, and honest about our aims and the methods we use to attain them.
As institutions, we must embrace the complexity of this moment, not with fear and prohibition, but with thoughtfulness and research into how to get the best of AI innovations.
For me, writing is a way of thinking. It’s how I make sense of the world, how I reflect on experience, how I engage with ideas. Copilot helps me think as I write, but only when I’ve already done the intellectual work and written down my ideas. It doesn’t replace the messy, human process of grappling with complexity. It doesn’t write for me; it helps me finish.
This distinction matters because it’s the difference between authorship and automation, between creativity and replication.
Writing with machines isn’t the end of creativity, it’s a new beginning — if we choose to make it one.
J’ai rédigé plus de 125 billets de blogue depuis début 2023. Certains étaient très personnels, d’autres neutres; certains étaient critiques, humoristiques, voire satiriques. Tous étaient réfléchis, fondés sur mon expérience en tant que professeur, bioéthicien et chef de département confronté aux réalités complexes de la vie universitaire.
Admirateur de longue date de la traduction automatique assistée par l’IA, j’utilise systématiquement DeepL pour traduire tous mes articles en français, avant de les corriger avec Antidote et de les faire valider par ma femme. Bien que je sois bilingue et à l’aise en français, ma grammaire et mes expressions ne seront jamais parfaites. J’utilise ces deux outils linguistiques quotidiennement pour rédiger des courriels et produire d’autres documents en français dans le cadre de mon travail de professeur à l’Université de Montréal. Ils ne sont pas parfaits, mais ils sont bien meilleurs que ce que je pourrais faire seul.
Au cours des six derniers mois, j’ai expérimenté différentes utilisations de ce qui est pour moi un nouvel outil d’écriture, à savoir Copilot (Microsoft 365, fournie par mon institution) et, occasionnellement, ChatGPT pour m’aider à traduire mes idées en texte.
Je reste critique à l’égard du battage médiatique autour de l’IA générative. En tant que spécialiste de l’éthique des technologies et membre de l’OBVIA, j’ai participé à de nombreuses réflexions sur les implications sociales, éthiques, économiques et environnementales de l’IA. De plus, comme de nombreux éducateurs, je m’inquiète de l’impact de l’utilisation de ces outils sur l’environnement d’apprentissage, qu’il s’agisse d’une augmentation de la tricherie ou, tout aussi problématique, d’un facteur contribuant à la paresse intellectuelle et à l’appauvrissement des capacités d’analyse et des compétences rédactionnelles des étudiants.
Pourtant, je crois également qu’une utilisation réfléchie de ces outils peut enrichir nos pratiques de recherche et d’enseignement, voire notre écriture, mais seulement si nous sommes honnêtes et transparents sur la manière dont nous les utilisons et si nous sommes clairs sur leurs limites. Je suggère de considérer l’IA générative comme une technologie à double usage, qui peut être utilisée à des fins bonnes ou mauvaises.
Je ne m’attarde pas ici sur l’ensemble des préoccupations soulevées par l’IA générative, qui sont nombreuses. Je me concentre plutôt sur la manière dont je l’utilise de manière productive dans mes propres écrits, sur les limites que j’y vois et sur ce que cela implique pour l’utilisation inévitable de l’IA dans le monde universitaire et la société en général.
Quand les notes sont là, mais pas l’histoire
J’écris à partir de notes désordonnées, dispersées, de fragments d’idées à moitié formés qui s’accumulent au fil des semaines ou des mois. En raison de ma dyslexie et de mon aphantasie, je ne peux jamais « imaginer » un texte complet dans ma tête, car je ne visualise pas; et, comme je pense en écrivant ou en parlant, je ne travaille jamais à partir d’un plan. Ainsi, même si je sais parfois exactement ce que je veux écrire pour un billet de blogue et que le texte coule naturellement, il m’arrive d’avoir des pages de notes sans fil conducteur ni trame narrative pour relier le tout.
C’est là que Copilot m’a été d’une aide précieuse.
Après une première expérience positive, j’ai commencé à fournir à l’IA une série de notes, parfois sous forme de listes à puces, parfois sous forme de paragraphes entiers, et je lui ai demandé de me suggérer une structure, puis de rédiger un brouillon du billet. Copilot m’a aidé à trouver l’histoire qui expliquait mes idées, m’a proposé des arcs narratifs et des transitions, m’a suggéré des exemples fictifs et des formes créatives, et a même produit des paragraphes entiers qui m’ont aidé à voir la forme que prenait l’article que j’essayais d’écrire.
Sur la suggestion d’un ami beaucoup plus expérimenté en IA générative, j’ai fourni des exemples de billets que j’avais écrits sans IA, puis je lui ai demandé de créer un modèle de style d’écriture, que j’ai ensuite adapté à mon style et à mon esthétique personnels. Le brouillon généré par Copilot est étonnamment proche de ce que je souhaitais, mais il est loin d’être parfait.
Même lorsque je commence avec de longs passages de texte plutôt que des notes, les résultats sont toujours incomplets et parfois superficiels. Copilot établit également parfois des liens ou fait des suggestions qui ne me conviennent pas. À titre indicatif, je dirais que, lorsque je pars d’une page de notes (qui ne sont pas classées dans un ordre particulier, car elles sont générées librement), le résultat correspond à environ 80 % du texte final. Cependant, je ne serai jamais satisfait de ce premier jet, car il s’agit bien d’un brouillon, et non d’un texte final. Il n’est tout simplement pas assez bon pour être publié.
Après avoir utilisé cette approche dans plus de 20 billets et avoir craint de perdre ma voix au profit d’une voix générée par une IA, je suis désormais convaincu que les textes que j’ai produits sont toujours les miens, même si l’approche créative a quelque peu changé. Les idées initiales et le ton sont les miens. La structure ou le récit sont suggérés par Copilot. Les textes finaux sont tous réécrits, développés et clarifiés par mes soins à des degrés divers, sur plusieurs heures, jours ou semaines, selon mes habitudes d’écriture, jusqu’à ce qu’ils soient à nouveau les miens.
Je n’externalise pas ma créativité à une IA : celle-ci fournit un support à mes idées et à mes mots, mais mon intégrité m’oblige à repenser et à approuver chaque phrase. La machine me donne un point de départ, mais le travail est le mien, tout comme la responsabilité de ce que j’écris.
Satire, style et collaboration explicite
Dans certains cas, la collaboration avec Copilot a été si créative et si inattendue que je l’ai explicitement mentionnée dans le billet publié. Bien que ma carrière universitaire m’ait donné la liberté de jouer avec de nombreux styles d’écriture différents, que je sois un fervent admirateur de fantasy et de science-fiction et que j’encourage vivement la communication créative dans les écrits universitaires, je ne suis pas un artiste ou un écrivain de fiction dans l’âme.
Il y a des billets que je n’aurais jamais pu écrire seul sans l’aide d’une IA générative. En voici trois exemples :
Faire face à la bureaucratie
Cette satire interactive sur la bureaucratie institutionnelle est née d’une frustration personnelle. J’avais l’idée, le ton et les exemples — Copilot m’a aidé à construire la structure ramifiée, les scénarios absurdes et le rythme narratif. J’avais l’impression de coécrire avec un collègue espiègle qui comprenait parfaitement les méandres de l’administration universitaire.
La novlangue revisitée
Ce billet, qui prend la forme d’une note de service gouvernementale fictive rédigée dans le langage orwellien de 1984, parodie l’idéologie bureaucratique et l’utilisation du langage comme arme. Écrit en collaboration avec deux coauteurs, il présente une critique politique inspirée d’un dialogue en ligne. Copilot nous a aidés à canaliser la voix du ministère de l’épuration linguistique, en créant la syntaxe laconique, le double langage euphémique et la clarté glaçante d’Orwell.
Guide jabberwockien pour une mauvaise écriture
Inspirée de Lewis Carroll, cette critique fantaisiste du jargon universitaire a été un véritable plaisir à écrire. Copilot a généré des métaphores ludiques, inventé des mots et des images surréalistes, que j’ai ensuite façonnées pour en faire une satire cohérente. C’était une danse entre le non-sens et le sens, et l’IA a mené les premiers pas.
Ces publications étaient ludiques, expérimentales et différentes de tout ce que j’aurais pu écrire moi-même. Copilot m’a aidé à trouver une voix, ou plutôt un ensemble de voix créatives, que je n’avais pas naturellement. Et comme le travail créatif était clairement collaboratif et dépassait largement mes propres capacités, j’ai reconnu Copilot de manière explicite et transparente. Mais je suis resté l’auteur, responsable du contenu.
Contributions discrètes
Toutes les utilisations de Copilot ne méritent pas d’être mentionnées. Dans de nombreux articles, son rôle a été plus subtil : générer des métaphores, rédiger des études de cas fictives, proposer des suggestions stylistiques. Ces contributions étaient des matières premières, pas un produit fini. Je les ai ensuite transformées, en les réécrivant en profondeur, en intégrant le contenu à ma propre voix et à mon propre récit, en ajoutant des exemples, parfois en les restructurant complètement, et toujours en les développant considérablement.
Dans ces cas, je n’ai pas cité Copilot, non pas parce que je cachais son utilisation, mais parce que le texte final, tant dans sa forme que dans son contenu, était le mien, façonné par ma réflexion, mon édition et ma réécriture. Lorsque la contribution de la machine disparaît dans le flux de mon écriture, elle devient une partie intrinsèque du processus, et non un résultat. Je dirais que cela n’est pas différent de l’utilisation de DeepL pour la traduction ou d’Antidote pour la vérification orthographique et grammaticale. Ces outils facilitent le travail, mais ils ne le définissent pas.
Les limites de la suggestion
En tant qu’éducateur et éditeur d’une revue, j’ai également constaté le côté plus sombre de l’écriture IA, non seulement en termes de plagiat, mais aussi de médiocrité.
Les textes générés par l’IA à partir de simples consignes sont invariablement superficiels, génériques et ennuyeux. Ils manquent de profondeur, de nuance et d’originalité. Et ils contiennent souvent des hallucinations, ces erreurs générées par l’IA parce qu’elle est douée pour établir des liens entre les mots, mais qu’elle ne comprend pas fondamentalement le sens de ce qu’elle produit.
Ainsi, même si je ne peux pas toujours prouver qu’un étudiant ou un auteur a utilisé l’IA — car nous ne disposons pas d’outils de détection efficaces et que ce qui constitue une « utilisation légitime » n’est pas encore clairement définie —, une telle preuve n’est souvent pas nécessaire. Parfois, c’est évident, car l’étudiant ou l’auteur a été tellement paresseux qu’il a laissé la consigne donnée à l’IA au bas du texte : oui, je suis sérieux. Plus généralement, cependant, le manque d’effort intellectuel est évident dans un texte entièrement généré par l’IA, et la note ou l’évaluation reflète la qualité du travail, et non la méthode utilisée pour le produire. Il s’agit simplement d’une mauvaise rédaction.
Cette nuance éthique est importante. Le problème ne réside pas tant dans l’outil, mais dans l’absence de réflexion et de responsabilité de la part de l’utilisateur de l’outil.
La nouvelle littératie
Nous devons donc repenser la manière dont nous enseignons la rédaction académique et, plus généralement, les compétences en matière de recherche. La maîtrise de l’IA doit faire partie intégrante de la formation universitaire, non pas comme une mise en garde — « n’utilisez jamais l’IA » est à la fois déraisonnable et impossible à appliquer — mais comme une compétence comme une autre, qui peut être enseignée et maîtrisée.
Les étudiants doivent apprendre à utiliser efficacement des outils tels que Copilot et d’autres IA génératives pour améliorer leur réflexion, soutenir leurs recherches et perfectionner leur écriture. Cependant, ces outils ne peuvent remplacer le travail acharné que requièrent une réflexion claire et une communication efficace. L’écriture est un processus de réflexion, pas seulement de production. Il s’agit de se confronter à des idées, de tester des hypothèses et de trouver sa voix. L’IA peut soutenir ce processus, mais seulement si l’on sait l’utiliser de manière critique. Les étudiants doivent donc apprendre la différence entre la simple génération de texte (nécessaire, mais pas suffisante) et l’élaboration d’un argumentaire cohérent et convaincant.
De leur côté, les établissements doivent changer leur approche, en mettant moins l’accent sur la détection et la sanction et davantage sur le développement de compétences fondées sur la maîtrise et la transparence. Nous devons enseigner aux étudiants non seulement ce que l’IA peut faire, mais aussi ce qu’elle ne peut pas faire.
Les IA génératives actuelles sont des outils puissants, mais elles ne sont pas magiques. Elles peuvent amplifier la créativité, clarifier la structure et améliorer la cohérence d’un texte, mais uniquement lorsqu’elles sont associées à un contenu de qualité dès le départ, puis à une révision attentive par l’auteur. L’IA peut surprendre, provoquer et même nous apprendre des choses, mais elle ne peut pas (jamais?) nous remplacer.
En tant qu’éducateurs, nous devons enseigner à nos étudiants à écrire avec intégrité et originalité.
En tant qu’auteurs, nous devons rester curieux, critiques et honnêtes quant à nos objectifs et aux méthodes que nous utilisons pour les atteindre.
En tant qu’institutions, nous devons accepter la complexité du moment présent, non pas avec crainte et interdiction, mais avec réflexion et recherche sur la manière de tirer le meilleur parti des innovations de l’IA.
Pour moi, l’écriture est une façon de penser. C’est ma manière de donner un sens au monde, de réfléchir à mon expérience et d’aborder les idées. Copilot m’aide à réfléchir pendant que j’écris, mais seulement lorsque j’ai déjà effectué le travail intellectuel et couché mes idées par écrit. Il ne remplace pas le processus humain chaotique qui consiste à se débattre avec la complexité. Il n’écrit pas à ma place, il m’aide à terminer.
Cette distinction est importante, car elle marque la différence entre la création et l’automatisation, entre la créativité et la reproduction.
Écrire avec des machines n’est pas la fin de la créativité, c’est un nouveau départ, si nous choisissons de le voir ainsi.
