Pourquoi Commown boycotte l’utilisation d’IA et plus particulièrement les IA génératives

Chez Commown, nous avons pris la décision de boycotter les IA génératives. Cet article explique les raisons qui motivent ce choix, en phase avec les valeurs que porte notre coopérative. Nous y développons notamment un prisme techno-critique sur l’évaluation de nouvelles technologies, et plus globalement les raisons pour lesquelles nous sommes contre le projet IA.

Plan de cet article :

I. Bataille culturelle autour de l’acronyme IA
II. Commown s’oppose au projet derrière l’acronyme IA !
III. Présentation d’une réflexion technocritique « générique »
IV. Application de cette réflexion à l’IA
V. Présentation du boycott de Commown
VI. Présentation des limites du boycott de l’IA en interne chez Commown (vs DeepL par ex).

I. Bataille culturelle autour de l’acronyme IA

IA partout, pour tout, solution ultime à tous nos problèmes, nouvel eldorado pour la croissance du PIB et enjeu de souveraineté. Voilà le récit hégémonique qui pollue nos imaginaires et domine actuellement les sphères médiatique, politique, économique.

La frénésie IA perfuse jusque dans la sphère militante.

La première version de cet article a été écrite en urgence suite à un mail de la Confédération générale des SCOP en mai 2024 qui, trop pressée de ne pas paraître dépassée, demandait à tous ses adhérents quelles coopératives avaient déjà déployé avec succès des IA en interne.

De son côté, Framasoft s’est empressée de développer sa propre IA « libre » (1) et capable de tourner en local, Lokas, basée sur Whisper, une boîte noire développée par Open IA. Suite à cela, cette association (que l’on adore par ailleurs) a publié un très long article très pédagogique pour comprendre les aspects « techniques » qui se cachent derrière l’acronyme IA.

Si vous souhaitez pouvoir y voir plus clair sur le plan technique dans le fourre-tout derrière ces deux lettres, nous vous invitons fortement à vous rendre sur ce site.

(1) Veritablement « libre » voudrait dire avoir accès aux données qui ont permis de concevoir le modèle derière voir le début de la conférence de Khrys à ce sujet

Le souci, c’est qu’en essayant de faire la distinction entre les différents types d’IA et en justifiant l’usage de certaines, on contribue collectivement à l’acceptation que l’IA peut être « utile ». Si certaines applications de l’IA peuvent l’être pour la santé, lutter contre la fraude ou pour l’investigation journalistique, alors les promoteurs des IA en tout genre vont les utiliser pour justifier un déploiement massif indiscriminé.

Cette rhétorique de la « bonne technologie » utile, pour légitimer de déployer une technologie généralisée a maintes fois déjà été utilisée :

La 5G va permettre de lutter contre les déserts médicaux

Aujourd’hui, la loi littoral vient d’être modifiée pour autoriser l’installation d’antennes relais sur les plages (voir l’article 17 du projet de loi simplification de la vie économique, juin 2025).

La vidéosurveillance algorithmique va permettre de retrouver des enfants perdus

Après son déploiement en Inde permis par cet argument, on arrête aujourd’hui des militants politiques. Voir cet article de Reuters et cette campagne du business et human rights ressource center.

Or l’imaginaire dominant qui se cache derrière cet acronyme IA s’inscrit dans une idéologie techno-solutionniste, selon laquelle tous nos problèmes pourraient être résolus par de nouvelles technologies encore plus performantes. Cependant, ses promoteurs ne prennent en aucun cas en considération les enjeux sociaux et environnementaux. C’est le récit du toujours plus connecté pour s’accaparer toujours plus de temps de cerveau disponible, mieux nous surveiller et influencer nos comportements. Et cela, au profit d’une minorité de géants de la tech et de leurs actionnaires.

Il convient donc de faire sécession et de rompre avec cette propagande !

Arrêtons d’utiliser l’acronyme IA pour tout et n’importe quoi. Appelons un chat un chat, trouvons d’autres noms adaptés quand l’outil se révèle réellement utile, sobre et ne vise pas l’enrichissement d’une minorité ou l’oppression d’une autre.

II. Commown s’oppose au projet derrière l’acronyme IA !

Nous avons bien conscience qu’il existe différents types d’IA et que, sur le plan purement « technique », il ne faudrait pas toutes les mettre dans le même sac.

Le problème, c’est que l’IA n’est pas simplement un ensemble d’outils techniques (voir cet interview de Vincent Bontems qui remet en question le qualificatif d’outil). En effet « l’IA » est un « projet » de société imaginé et impulsé par les techno-fascistes et autres masculinistes de la Silicon Valley. Donc oui, il convient bien de détester le projet d’IA que l’on cherche à nous imposer de force.

Nous avions commencé la rédaction de cet article avant de visionner la conférence de Krhys au JdLL 2025 qui démontre magistralement ce point !


Slide extraite de la conférence de Khrys aux JDLL 2025

Ainsi nous estimons aujourd’hui que les entreprises, le monde académique ou les personnes, qui développent des outils en utilisant l’acronyme IA contribuent indirectement au projet exposé dans ce graphique de Khrys. Bien que l’acronyme IA soit très rentable aujourd’hui en SEO, ou pour les recherches de subventions, il faut s’en passer ! Donc pour la suite de cet article, l’acronyme IA sera utilisé sans distinction du type de technologie qui se cache derrière.

III. Présentation d’une réflexion techno-critique « générique »

Quand bien même l’IA serait considérée uniquement comme un outil technique il conviendrait alors de développer à son égard à minima une pensée critique.

Nous avons chez Commown l’habitude de questionner systématiquement le réel besoin. Il s’agit la plupart du temps de celui des individus ou des organisations qui nous contactent pour nous louer du matériel. En effet, il convient dans un premier temps de faire durer les appareils (déjà produits) le plus longtemps possible et, seulement dans un second temps, de souscrire une offre chez nous.

Mais se contenter de faire uniquement peser le questionnement du besoin sur les individus, en culpabilisant leur usages, déresponsabilise les concepteurs de ces nouveaux outils techniques.

En effet, tout développement d’outil, qu’il soit numérique ou non, n’est pas neutre. Il est à la fois la cristallisation des valeurs de ses concepteurs et peut représenter une source de bifurcation majeure pour notre société et avoir d’énormes impacts sur notre environnement. Ainsi avant tout déploiement massif d’un nouvel outil technique nous devrions collectivement nous poser une série de questions :

  1. Quels sont les systèmes de valeur, les biais, ou les visions politiques portées par les concepteurs de cet outil ?
  1. Quelles sont les finalités promises (ou non avouées) par ses promoteurs ?
  1. A-t-on fondamentalement besoin de ces finalités promises ? Sont-elles souhaitables ? Pouvons nous nous les permettre ?
  1. Quels sont les impacts sociaux et environnementaux associés à leur développement ?
  1. Quelles peuvent être les bifurcations induites sur la société suite à leur déploiement ?
  1. Si les ressources pour le maintien de cet outil vient à manquer, qu’impliquerait sa disparition sur la société ?

Et en fonction des réponses obtenues, nous devrions soit encadrer leur déploiement, soit le réorienter et parfois purement le stopper.

Sur la question de la pseudo-neutralité de l’outil, nous vous invitons à consulter ce site de Stéphane Crozat dont nous nous sommes inspirés pour établir la liste des questions ci-dessus.

IV. Application de cette réflexion à l’IA

1. Quels sont les systèmes de valeur, les biais, ou les visions politiques portées par les concepteurs de cet outil ?

Bien que le premier « âge d’or » de l’IA remonte aux années 60, son expansion actuelle est à mettre au crédit des géants de la tech, les seuls en mesure de mobiliser les fonds nécessaires et disposant des ressources matérielles pour lancer ces projets pharaoniques.

Ainsi l’IA telle que nous la connaissons aujourd’hui a été développée principalement aux USA, dans une société ultra libérale et ultra-capitaliste. Elle est issue d’une société qui sacralise le dépassement personnel, la compétition et l’individualisme, et perfusée par l’aspiration au dépassement de toutes les limites, qu’elles soit planétaires ou même physiologiques.

Le projet IA s’inscrit parfaitement dans le mythe techo-solutionniste qui voit le développement de nouveaux outils techniques comme ultime solution aux maux qui accablent l’humanité, jusqu’à vaincre la mort elle-même avec la création en 2013 de Calico par Google.

Au-delà de ça, les concepteurs des IA sont financés en grande partie par des entreprises dont le modèle économique repose sur le capitalisme de surveillance. Ainsi l’IA est une enième « innovation » ne considérant les individus que par le prisme des données qu’ils vont pouvoir générer. L’IA est donc nécessairement pensée pour générer à terme de la donnée, carburant du capitalisme du 21ᵉ siècle.

Sans oublier que, les concepteurs d’IA étant majoritairement des hommes évoluant dans une société patriarcale, les biais sexistes induits dans de nombreux modèles ont déjà été démontrés dans une étude de l’UNESCO en 2024. Rien d’étonnant vu la disparité énorme entre les genres qu’elle révèle dans le secteur de l’IA, composé à plus de 80% d’hommes. À noter que la politique de Trump contre l’égalité des chances et le revirement des géants de la tech comme Meta à ce sujet ne vont faire qu’empirer les choses.

Les IA reproduisent par ailleurs les biais déjà présents dans les sociétés, puisqu’elles ne disposent pour leur apprentissage que des donnés actuelles elles-mêmes percluses de biais. L’ONU alertait déjà en 2024 sur les dérives racistes des IA génératives, aux algorithmes prédictifs assistant la police.

2. Quelles sont les finalités promises (ou non avouées) par ses promoteurs ?

Les principales « finalités promises » qui sont aujourd’hui mises en avant par les promoteurs d’IA reposent toujours sur le même mantra :

  • Optimisation de temps ou des performances pour plus de « productivité » dans le domaine professionnel.
  • Gain de compétitivité et capacité d’innovation décuplée.
  • Simplification de la vie du quotidien pour les particuliers, l’IA deviendrait un assistant personnel tel Jarvis d’Iron Man qui pourrait commander nos courses sur Amazon Prime ou planifier nos week-ends prolongés sur Ryanair et Airbnb à notre place.
  • Relais de croissance pour les pays en pointe sur ce sujet.

Concernant les « finalités non avouées », on peut citer le triptyque habituel :

  • Surveillance et contrôle des populations.
  • Captation et monétisation de l’attention à des fins publicitaires.
  • Augmentation de la rentabilité du capital pour les plus riches.

Mais là où l’IA pourrait se distinguer, c’est qu’elle pourrait faire naître un nouveau marché : celui de l’économie de l’intention… Notre attention déjà trop saturée ne suffisait plus : mieux vaut maintenant deviner notre intention et pourquoi pas l’influencer pour orienter nos actes de consommation ou nos choix politiques.

Pour faire court, l’IA pourrait représenter un énième outil d’asservissement des populations pour maintenir en place les inégalités sociales dans un monde où la bataille des ressources ne fait que commencer.

3. Avons-nous fondamentalement BESOIN de ces finalités promises ? Sont-elles souhaitables ? Pouvons-nous nous les permettre ?

Face à toutes les « finalités avouées » quelques questions complémentaires s’imposent pour répondre à la question du besoin :

  • Gain de productivité/compétitivité

Pourquoi pas… Mais pour quoi faire, et au bénéfice de qui ?

  • Simplification de la vie du quotidien

Que faire dans ce cas du temps gagné ? Travailler plus pour consommer plus ?
Avons-nous besoin d’être assistés constamment dans notre quotidien ?

  • Relais de croissance

N’était-il pas question de ralentir ?

Sur les finalités non avouables, nous plongeons clairement dans un avenir dystopique, et il est évident que ce type d’outil qui ferait saliver d’envie un Bruno Retailleau ou un Bachar el-Assad ne sont pas souhaitables.

Enfin, à la question « pouvons-nous les permettre ? », la réponse est NON.

Pour comprendre ce non catégorique, il convient de lire la réponse à la question 4.

4. Quels sont les impacts sociaux et environnementaux associés à leur développement ?

A. C’est une aberration sociale :

a. Exploitation et conditions de travail déplorables sur la phase d’apprentissage

Pour qu’une IA puisse devenir opérationnelle, elle doit en premier lieu être « éduquée », et cela nécessite des centaines de milliers de retours et de contrôle de son travail. Et pour cela, rien de tel que d’exploiter de la main d’œuvre à bon prix. Que ce soit dans les prisons en Finlande, dans des lycées durant des cours de formation aux IA ou à Madagascar, des travailleurs du clics sous-payés effectuent un travail aliénant et parfois psychologiquement insoutenable.

En effet, comment s’assurer qu’une IA générative d’image ne produise pas « par erreur » des images pédopornographiques qui inondent le web, et qu’elle a forcément agrégées comme sources d’information dans sa phase d’apprentissage ?

Eh bien, il faut lui en faire produire et lui expliquer qu’elle ne doit pas les reproduire… Ainsi des personnes sont sous-payées pour être exposées pendant des semaines à ce type de production graphique. Voir cet article de France Info sur ce sujet.

b. Dégradation des conditions de travail chez les utilisateurs finaux

Déjà en 2021, l’Agence Européenne pour la santé et la sécurité au travail alertait sur les conséquences potentielles des IA sur les conditions de travail.

À titre d’exemple, l’automatisation des tâches peut induire un travail plus sédentaire et une moindre variation des tâches, les travailleurs se retrouvant face à un travail répétitif. L’automatisation des tâches peut provoquer une sous-utilisation des capacités cognitives et de l’ennui, une pression liée aux performances, une intensification du travail, certains facteurs de risque, tels l’isolement et le manque de contact avec les collègues, ou encore des répercussions négatives sur le travail d’équipe. Tous ces effets constituent des risques psychosociaux.

Elle indiquait aussi à l’époque les risques d’utilisation de l’IA pour la surveillance des personnes salariées, et elle vient de publier un rapport spécifiquement à ce sujet. Elle remarque que, malgré les annonces des industriels, qui présentent l’IA comme un outil d’amélioration des conditions de travail dans la presse, la majorité des brevets déposés ont pour application la surveillance et la productivité des salariés. L’IA chez Amazon est carrément utilisée, entre autres, pour licencier automatiquement ses livreurs.

c. Une énième source d’asservissement aux GAFAM et aux puissances étrangères

Il ne faut pas se leurrer : ce n’est pas parce que Microsoft vient d’annoncer un plan d’investissement de 4 milliards en France que le déploiement de serveurs de ce GAFAM sur notre territoire va permettre une soudaine « souveraineté » dans le domaine des IA.

Au-delà de notre asservissement en France par cet intermédiaire, le développement des IA fait peser un risque de néocolonialisme sur les pays du Sud. L’IA leur est vendue comme panacée absolue à leur problématique de développement. Mais là encore, cela se fait sur un accaparement des données numériques de ces pays qui seront ensuite fortement incités à suivre les préconisations des IA, probablement elles-mêmes prodiguées par des entreprises capitalistes du Nord…

d. Privatisation des communs et non-respect des droits d’auteurs

Pour s’entraîner, les IA génératives ont besoin dans un premier temps d’une quantité astronomique de données, qu’il s’agisse de textes ou d’images. Toutes ces sources, issues du web sans aucune forme de considération des droits d’auteurs, ont été dénoncées à maintes reprises, notamment par les artistes et les comédiens de doublage. Cela fit l’objet d’une première timide tentative d’encadrement au niveau de l’UE, sans l’aide de la France. Aux USA, le débat suite au vol de la voix de Scarlett Johansson par OpenAI pousse encore plus loin en avant la dystopie où notre voix et notre image pourraient être clonées à notre insu, et réutilisées, comme c’est déjà le cas, à des fins politiques.

Et, même si tous les textes utilisés l’étaient depuis des sources comme Wikipédia ou que les images étaient sous licence Creative Commons, cela représenterait tout de même une énième privatisation de nos communs. Ou bien, comme le dit très justement Khrys dans sa conférence :

L’IA représente une nouvelle forme d’accumulation primitive, celle de l’intelligence collective humaine.

B. C’est une hérésie environnementale aux nombreuses externalités

a. L’IA nécessite de nouvelles infrastructures et fait bondir l’empreinte carbone du secteur.

Un consensus scientifique se dégage sur le fait qu’une proportion très importante de l’impact carbone réside dans la phase de production des terminaux (voir le rapport ADEME/ARCEP par ex). Le problème des IA réside dans le besoin astronomique de puissance de calculs qu’il faut pour traiter les masses de données et faire tourner les algorithmes génératifs. Ainsi, les serveurs du monde entier sont « mis à jour » avec des processeurs plus puissants. Ce renouvellement prématuré et les nouvelles installations de serveurs sont directement responsables de l’explosion de plus de 23% de l’empreinte carbone de Microsoft, qui reconnaît l’impact environnemental de l’IA dans son dernier rapport d’impact.

Aux nouvelles installations de data centers et à leur renouvellement, il faudra aussi rajouter l’impact indirect induit sur le parc IT existant, par exemple les smartphones « dernier-cri » IA compatibles arrivent déjà sur le marché pour rendre obsolètes les précédents.

b. L’utilisation d’IA est particulièrement énergivore

Aujourd’hui, le secteur manque cruellement de transparence et il est difficile de connaître la consommation réelle et projetée des data centers dans le monde.

Toutefois, et d’après cet article de Nature, l’utilisation d’IA au niveau mondial aurait déjà consommé entre 7 et 11 TWh en 2023, ce qui représente environ 0.04% de la demande annuelle en électricité, et que cette consommation pourrait être décuplée d’ici 2027.

Certains prédisent déjà une consommation électrique équivalente à celle de l’Irlande en 2027 pour l’IA de Google « Bard », concurrente de ChatGPT (Article France Info).

Un récent rapport de l’AIE prévoit lui que l’essor de l’IA au niveau mondial entraînerait d’ici 2030 un doublement de la consommation d’énergie finale des data centers. Ceci met directement en péril les perspectives de décarbonation que nous sommes supposés avoir à court terme (aujourd’hui les DC au niveau mondial seraient alimentés à 30% par du charbon) !

Et si l’on écoute l’ex-CEO de Google, l’IA viendrait carrément à consommer près de 99% de l’électricité mondiale produite d’ici 2030. Déclaration faite devant la chambre des représentants américains, pour accélérer la production d’électricité quelle que soit la source.

c. Les serveurs d’IA sont d’énormes consommateurs d’eau douce centralisés

Toute cette puissance déployée et cette consommation électrique exigent nécessairement un refroidissement performant. Ceci implique dans la très grande majorité des cas une consommation massive d’eau douce localisée (sur les régions hébergeant les serveurs). Que ce soit pour la phase d’entraînement ou d’utilisation, les besoins sont considérables. Dans le rapport d’impact 2024 de Microsoft, l’entreprise explique l’explosion de ses besoins en eau douce (+34% en 2022 et +22 % en 2023) par « son développement », directement lié à l’IA.

Des conflits d’usages de l’eau seront inévitables à très courtes échéances partout sur le globe. Par exemple l’Uruguay vient de vivre l’une de ses pires sécheresses conduisant les autorités à alimenter la population avec de l’eau salée. De fait, l’annonce par Google de l’installation d’un nouveau data center a suscité une vive (et légitime) réaction de la population. Ce nouveau data center est supposé consommer de façon journalière l’équivalent de 55 000 habitants.

La France ne sera pas épargnée par ces enjeux, les prévisions de Météo France sur le sujet sont sans appel :

  • 10% des cumuls de pluie en été en 2050 et 15 à 27 jours supplémentaires de sécheresses des sols en 2050, comparé à la période 1976-2005.
  • 2 fois plus de sécheresse des sols en 2050, comparé à la période 1976-2005
  • 2 milliards de mètres cube d’eau manqueront en 2050 si la demande reste stable.

Et les dernières annonces du gouvernement ne vont pas tendre à « stabiliser la demande » :

Que ce soit les projets de « relocalisation » de la production de semi-conducteurs à Grenoble où les conflits d’usage de l’eau sont déjà présents.

Ou bien encore la récente annonce de Microsoft d’investir 4 Milliards en France pour le déploiement de méga data centers, tout tend vers une explosion de la consommation en eau douce du numérique chez nous.

Mais pas de stress à avoir : nous pourrons continuer à utiliser l’IA, même si nos agriculteurs eux ne pourront plus irriguer leurs cultures. En effet, pour préparer au mieux l’arrivée des infrastructures de ce GAFAM en France, le gouvernement travaille actuellement sur un projet de loi qui permettra (voir l’article 15) au projet de méga data center d’être qualifié « de projet industriel de projet d’intérêt national majeur (PINM) pour la transition écologique ou la souveraineté nationale ».

À date (24 juin 2025), à noter que ce projet de loi doit encore passer en commission mixte paritaire et la Macronie a essuyé sur ce sujet une défaite infligée par le Parti Socialiste qui a réussi à faire passer un amendement qui a priori imposerait au data center de respecter la RGPD pour bénéficier du label de PINM.

5. Quelles peuvent être les bifurcations induites sur la société suite à leur déploiement ?

Ici l’impact du développement massif des IA sur notre société est un peu plus prospectif : difficile d’avoir une boule de cristal à ce sujet. Pour autant le pire est à espérer.

Une étude montre déjà qu’une utilisation quotidienne des IA génératives faisaient diminuer le niveau d’esprit critique des personnes qui les utilisent. Or l’IA est déjà utilisée pour faire circuler massivement des fake news comme sur X avec Grok, et le niveau global d’esprit critique de la population est déjà suffisamment déplorable !

Elles auront tout le loisir d’utiliser par la suite les outils de contrôle algorithmique de la population, comme c’est actuellement déjà le cas en Chine. « La dictature s’épanouit sur le terreau de l’ignorance » écrivait Orwell.

Pour le reste, sur la question des dérives, il suffit de piocher dans les dystopies hollywoodiennes et de faire une recherche en ligne pour trouver des exemples comme comme au Royaume Uni, où le ministère de la justice travaille sur une IA prédictive des crimes à l’image de Minority Report.

L’impact sur le monde du travail sera sans doute le plus désastreux, près de 40% des emplois dans le monde seront affectés par l’IA d’après les Nations Unies qui appellent à une politique proactive des États pour travailler sur cette transition.

6. Si les ressources pour le maintien des IA venaient à manquer, qu’impliquerait sa disparition sur la société ?

Imaginez que l’on remplace tous les docteurs spécialistes en analyse d’imagerie médicale par des IA. Que tous·tes nos enseignant·e·s soient remplacé·e·s par des IA comme cela a déjà été testé dans un collège privé en Angleterre par exemple. Que les avocats et juristes disparaissent eux et elles aussi, au profit d’assistants juridiques artificiels

Que ferions-nous le jour où, pour des raisons de rationnement de ressources (terres rares, eau, énergie…), nous ne pourrions plus avoir accès à ces services dont nous deviendrions dépendants ? Plus nous serons dépendants de l’IA pour régir notre quotidien, plus notre société sera fragile face aux inévitables pénuries de ressources à venir d’ici la fin du siècle.

Ainsi, avant de déployer l’IA partout, et pour chacun de nos besoins, il est impératif de penser et anticiper l’après IA.

V. Présentation du boycott de Commown

Pour toutes ces raisons, il nous semble évident que nous ne pouvons pas cautionner l’utilisation et le déploiement d’IA au sein de notre coopérative.

Si, à l’avenir, nous trouvions un outil algorithmique sobre et véritablement utile, libre et applicable à une fonction spécifique, nous pourrions considérer un déploiement raisonné de celui-ci. Mais à aucun moment utiliserions-nous l’acronyme IA pour le décrire.

Il est tout simplement hors de question, par exemple, que nous remplacions notre service support par un chatbot boosté à l’IA, ou bien que nous recourions aux IA génératives pour augmenter notre production de contenu sur les réseaux sociaux (ou ailleurs).

À noter également que nous avons mené des actions de plaidoyer dans le cadre du projet de loi de simplification de la vie économique pour nous opposer à l’article 15 qui prévoit de faciliter l’installation des data centers hyperscale en France. Ce travail a été mené en partenariat avec la Quadrature du Net, le Nuage était sous nos Pieds, Data For Good, GreenIt et plus largement les membres du collectif Hiatus. Voir cet autre article de notre forum à ce sujet.

VI. Présentation des limites du boycott de l’IA en interne chez Commown (vs DeepL par ex).

Malheureusement, il est impossible de garantir un strict boycott de l’IA en interne : nous n’allons pas installer des système de tracking sur les ordinateurs de nos équipes, mais allons tout de même réfléchir à faire signer une charte à ce sujet.

Par ailleurs, comme l’explique bien cet article de Limites Numériques il est aujourd’hui difficile de ne pas tomber « par mégarde » sans le savoir dans le piège de l’IA partout, et des dark patterns associés.

Par exemple nous utilisons depuis des années (bien avant que l’IA devienne un tel sujet de société) DeepL dans sa version gratuite pour des traductions ponctuelles. La version gratuite de DeepL est basée sur un réseau de neurones, et la version pro payante met en avant son modèle IA Based comme argument marketing.

Ainsi, nous allons devoir rajouter cette incohérence dans le bloc dédié sur notre site web car il s’agit là d’une source de dissonance.

2 « J'aime »