Friteuse a écrit : ↑15 févr. 2026, 22:20
Ce qui est différent pour l'instant c'est le côté extrêmement centralisé de la technologie. J'ai passé un peu de temps sur un subreddit de gens qui cherchent à construire leurs propres LLM "maison" (pour des tâches bien plus restreintes que les ChatGPT, Deepseek, Gemini, etc), c'est intéressant dans l'idée parce que ça permettrait de garder une forme de contrôle sur la technologie en se forçant à limiter son champ d'action. N'empêche que ça consomme déjà sa race en matériel et c'est un budget inatteignable pour la majorité des gens pour le moment, donc la question c'est est-ce qu'on verra une ouverture vers de l'IA à usage personnel un peu comme on a eu les PC au milieu des années 2000 ? Si oui, ça laisse encore plein d'autres problèmes en suspens (notamment sur l'aspect consommation de ressources) mais ça permettrait au moins de limiter le pouvoir des gros éditeurs de LLM. Si non, on va définitivement vivre dans une dystopie plus caricaturale que tout ce qu'on pourrait imaginer.
C'est pas que je veux faire comme si tout allait bien avec les technologies actuelles que les gens maîtrisent à peu près, il y a eu de longs débats très pertinents sur les problèmes liés au système de référencement des résultats de recherche dans Google par exemple, mais au moins jusqu'à présent on ne dépendait des moteurs de recherche que comme des intermédiaires. Tu peux avoir de la censure, du réhaussage artificiel de résultats peu pertinents, des arnaques, mais une fois que le moteur de recherche t'a dirigé sur le site c'est bon t'es plus entièrement dans le giron de Google. ChatGPT et autres peuvent s'utiliser comme ça, mais:
- d'une c'est pas la norme de l'utiliser comme ça (@TortueVerte, pour résumer mon message de tout à l'heure où on s'est visiblement mal compris: je m'en fiche que l'on puisse demander à GPT de citer ses sources, s'il a la possibilité de ne pas le faire alors c'est un problème, et un problème collectif pas individuel)
- de deux il y a un risque qu'il invente carrément des sources quand on le lui demande (sans rentrer dans la bataille de chiffres, tout le monde s'accorde à dire que c'est un pourcentage > 5% donc significatif)
- de trois, en supposant que les deux points précédents ne sont pas un problème, le simple fait d'adopter les biais de sélection du LLM multifonctions quand il trie ses sources plutôt que les siens sur lesquels on peut au moins avoir un peu de recul ça me gêne profondément, en tout cas sur certains sujets.
Alors bien sûr il y a plein de tâches pour lesquelles l'IA pourrait être fantastique, le danger majeur c'est de vendre un outil multifonctions privé comme quelque chose de souhaitable alors que si on veut au mieux accompagner cette technologie, il faudrait au contraire la segmenter. Tu veux accélérer une recherche bibliographique pour ta thèse ? Utilise l'IA spéciale recherche bibliographiques, ça épargnera du temps à tout le monde sur une tâche chiante qui n'apporte rien, on pourra la programmer pour la forcer à bien citer ses sources par défaut vu que c'est la norme dans le milieu et à force de s'entraîner sur un sujet ultra spécifique elle aura peut-être de meilleures performances. Tu veux joliment mettre en forme un PowerPoint fait à l'arrache ? Demande à l'IA dédiée, de toute façon tout le monde déteste les PowerPoint, même ton chef qui va péter un câble si tu le rends pas à temps. Tu veux pouvoir compléter rapidement un morceau de code spécifique qui te pose souci ? Utilise l'IA de complétion de code dédiée, même si c'est déjà plus discutable comme utilisation selon la situation. Tu veux pouvoir générer une image d'illustration au style caricatural et grotesque comme seule l'IA sait en faire parce que t'as aucune idée de comment communiquer un propos ? Va toucher de l'herbe, personne n'a besoin de ces images à la con.
Effectivement, je me retrouve mieux dans ces explications.
Pour le coup, l'IA maison (LLM local) est possible, selon Mistral, avec une "simple" 4090, au doux prix actuel de... 3000€... Pas accessible pour tout le monde, mais pas inaccessible non plus.
Je suis bien d'accord sur le fait que les IA ne donnent pas leur sources automatiquement est un soucis, soucis qui risque de devenir de plus en plus grand, car de la même manière que le SEO a tendance à rendre la recherche google de moins en moins pertinente, la même chose arrive sur l'IA, avec la capacité (humaine) de mettre en avant ses sources pour être prises en 1er choix par une IA.
Et oui, l'IA se trompe encore beaucoup (~30% d'erreur en moyenne). L'augmentation du taux d'erreurs est également du au fait que les dernières génération d'IA ne te disent plus "je ne sais pas" étant donné qu'elles ont un accès à des sources quasi infinies (recherche web), donc aujourd'hui on est à un taux de non réponse de 0% pour pratiquement toutes les IA (si ce n'est toutes).
Elles font encore (et feront surement toujours) des erreurs sur l'interprétation des données et l'IA a du mal a déterminer si une source est vraie, pertinente, etc...
Elles font par contre de moins en moins d'hallucination ou confabulation, dans certains cas/domaine on est à moins de 5%.
@rogermilla, la stratégie commerciale est surement celle que tu décris, en mettant à disposition gratuitement un outil dont on essaie de nous rendre dépendant (l'intégration de copilot à vscode pour ma part à grandement favoriser cette dépendance et en 6 mois, j'aurais du mal à m'en passer), la phase payante a pour moi déjà commencé, l'accès aux derniers modèles n'étant disponible que via un abonnement.
En phase avec rouge
