Les "IA" ne font que "recopier" ce qu'on leur donne, avec plus ou moins d'efficacité et plus ou moins de pertinence. Mais vu la masse de données qu'on produit, quelque soit le domaine, chaque jour, il y a peu de risque d'une pénurie de matières premières pour les entrainer à nous imiter. Et la quantité est telle qu'il est/sera difficile de détecter le coté "artificiel" d'une production IA, puisqu'il n'est pas concevable qu'une personne (ou qu'un groupe de personnes) ai(en)t connaissance de toutes ces "sources d'inspiration" au point de pouvoir déterminer l'origine d'une production (c'est déjà pas facile de détecter quand un étudiant plagie certaines parties dans ses travaux...
).
La présence de "bots" devient d'ailleurs un peu problématique pour certaines recherches que je fais dans le cadre du boulot, puisque l'activité de ces bots vient "fausser" ce qu'on peut mesurer pour des projets/systèmes et vient fausser les modèles qui sont en place depuis des années (ou des modèles qu'on tente de mettre en place). Un exemple extrêmement naif : il y a de plus en plus de bots qui sont actifs dans les issues ou pull requests sur GitHub. Quand tu t'intéresses à l'activité de ces projets, et que tu te sers des issues/PRs pour mesurer quelque chose indirectement (par exemple, l'attractivité d'un projet open-source en se basant naivement sur la fréquence des PRs ou des "nouveaux contributeurs"), il est très fréquent de se vautrer complètement parce qu'une partie non-négligeable de l'activité que tu mesures est en fait générée par des outils automatiques (ou des bots). Identifier ces bots n'est pas trivial du tout et pourtant indispensable si on ne veut pas se planter (on a récemment proposé un modèle pour y parvenir, en se basant sur le contenu des commentaires postés dans les issues et pull requests sur GitHub justement, avec une précision avoisinant les 97%).