IA & Hermann Rorschach
-
@Bryanbeast IA ou pas, le clip est terrible !
-
@Dave2000 ouais j'ai pas trop relevé le truc, j'ai toujours trouvé ça assez synthétique, genre le bof du métal allié au bof du breakcore... Mais bon c'est l'égout et les douleurs...
-
@Loposum ben oui c'est l'impression que ça m'a fait aussi, de me dire : en terme d'image y'a plusieurs bonnes idées, il se passe des trucs cools, mais y'a plein d'aspects qui me gâchent l'expérience globale...
-
Les modèles génératifs de vidéo ont explosé, tous les trois mois il y en a un nouveau qui enterre celui d'avant. Les derniers sont chinois.
-
Il y a certains passages où j’ai du mal aussi mais globalement ça fonctionne pluss que bien par moment !
(C’est quoi l’effet retrovision ?)
En tt cas j’ai adoré les premiers album d’Igorrr (pizza aux narines) je me suis un peu arrêtée là, non pas que j’aimais plus mais le temps passe trop vite…et y’a déjà trop de trucs à aimer en attente d’être aimer et d’autre à continuer d’être aimer… -
@sqallax a dit dans IA & Hermann Rorschach :
(C’est quoi l’effet retrovision ?)
L' effet clichesque faux vieux seventies
ou le "Quentin Tarantino algorithmique" comme on dit dans le milieu. -
ha oui ce côté un peu trop clean/esthétique qui glisse et qui manque de velcro ?
autrement dit trop proprement sale ? -
The AI Industry Has a Massive Problem: The Smarter AI Gets, the More It Is Hallucinating
Artificial intelligence, once the stuff of science fiction, now sits at the heart of daily life. From answering questions to drafting emails, AI-powered
spookysight.com (spookysight.com)
Dans le monde de l'intelligence artificielle, le terme « hallucination » ne désigne pas la vision d'éléphants roses ou l'audition de sons fantômes. Il décrit plutôt la tendance des systèmes d'IA – en particulier les grands modèles linguistiques – à générer des informations apparemment plausibles, mais entièrement inventées. Il ne s'agit pas de simples fautes de frappe ou d'erreurs mineures ; il s'agit de réponses sûres et détaillées sur des personnes, des événements ou des faits qui n'existent tout simplement pas
-
L'un des aspects les plus déroutants du problème des hallucinations est que même les créateurs d'IA peinent à l'expliquer ou à le contrôler. À mesure que les modèles se complexifient, leur fonctionnement interne devient de plus en plus opaque. Les ingénieurs peuvent modifier les algorithmes et ajouter des protections, mais la tendance sous-jacente aux hallucinations persiste obstinément.
Certains experts estiment que les hallucinations pourraient être un effet secondaire inévitable des architectures d'IA actuelles. Comme l'a déclaré Amr Awadallah, PDG de la start-up d'IA Vectara : « Malgré tous nos efforts, ils auront toujours des hallucinations. Cela ne disparaîtra jamais. »
La course à la création de systèmes d'IA toujours plus vastes a conduit à un paradoxe : des modèles plus puissants ne sont pas forcément plus précis. En réalité, alors que les entreprises investissent des milliards dans le développement de leurs infrastructures, le nombre d'hallucinations semble augmenter . Les récentes publications d'OpenAI, de Google et d'autres ont montré que les modèles plus récents peuvent être encore plus enclins à inventer des choses que leurs prédécesseurs.
Dans le monde professionnel, le besoin de vérification est encore plus grand. Les entreprises, les journalistes et les professionnels de santé doivent considérer l'IA comme un assistant utile, et non comme une autorité infaillible. Le risque d'accepter sans discernement des informations fabriquées est tout simplement trop élevé. -
La question soulevée n'est pas nouvelle, c'est la question de l'esprit critique, de la vérité. Modèle de langage ou pas ça a toujours été au cœur des reflexions sur les limites du langage.
-
@Julien-Millot : Ca va être chaud quand elle vont écrire "l' Antéchrist" avant d' aller se balader en ville histoire de papoter avec des chevaux.
Est ce que de disposer de trop de données simultanément rendrait sophiste ? -
@Dave2000 a dit dans IA & Hermann Rorschach :
Est ce que de disposer de trop de données simultanément rendrait sophiste ?
Ça ne rend certainement pas sophiste mais ça facilite l'approche !
-
Oui hein ? Comme les statistiques et les probas ... on peut leur faire dire intelligemment un truc complètement con.
-
on peut leur faire dire intelligemment un truc complètement con.
Ou un truc à moitié vrai. J’ai posé une question sur la toxicité d’un fruit un jour à chtgpt qui m’a répondu à côté sans nuance.
Si je n’avais pas creusé et ne connaissais pas la réponse j’en serai certainement resté là c’est dommage… -
De s' adresser à Chat GPT concernant une pastèque plutôt qu' au vieux qui picole sur la place du village et connaît ce fruit depuis douze générations ?
Oui c' est dommage, et a bien des niveaux. -
Ouai c’était pour vérifier un truc que je savais déjà et voir ce que chatgpt allait me sortir mais oui c’est le risque de faire encore moins d’effort pour aller chercher une info, entrecouper les sources etc ça prend du temps et yen a plus !
(Sinon je ne connais pas de vieux qui picole du vin de Laurier Cerise pour lui demander!) -
Les modèles trop généraux ne sont pas efficaces sauf pour pomper vos données. Vous pouvez entraîner vous-même vos modèles sur ce dont vous avez besoin, sur la base de sources que vous aurez sélectionné.
-
@funge , tu disposes de l'infrastructure pour faire de l'entraînement de modèle ?
-
@sqallax Ya pas un vieux qui picole du capivin sur la place de ton village ? Ici yen a plein, on peut faire de l' import/export si tu veux. Les marseillais manquent de supporters du PSG par exemple. On entend souvent "Tiens ! J' étriperais bien un supporter du PSG" ou alors "Je desouderais bien un supporter du PSG après l' apéro".
Enfin c' est sous réserves que tu as des supporters sous le coude, sinon des japonaises ça ira.@funge Carrément ! Tu veux pas qu' on aille dans une bibliothèque pendant qu' on y est ? Sinon même question que Juju plus haut ...
-
@sqallax je pense que le problème que tu soulèves et lié à une représentation erronée de ce qu'est un llm (la faute aux fausses promesses marketing de la startup nation et aux journalistes non spécialisés...). As tu entendu parler des RAG?