IA & Hermann Rorschach
-
@Dave2000 je vois pas la réf. Le hardware est dépassé oui il a atteint ses limites. Aussi parce qu'on s'obstine à faire des gros modèles omnipotents pour satisfaire aux modèles économiques.
-
@Judex-Franju a dit dans IA & Hermann Rorschach :
son essor pourrait même mener à une lutte pour les terres rares, lancée sur Terre et dans l’espace, au détriment du combat contre le dérèglement climatique
Ouh là là !
-
C'est un des enjeux de la guerre à l'est ouai. Le climat je vois pas trop le rapport. Mars se réchauffe aussi alors qu'il n'y a ni vache ni barbecue, ni industrie lourde, ni italo-dance, et ce n'est pas la seule.
-
@dada a dit dans IA & Hermann Rorschach :
@Judex-Franju a dit dans IA & Hermann Rorschach :
son essor pourrait même mener à une lutte pour les terres rares, lancée sur Terre et dans l’espace, au détriment du combat contre le dérèglement climatique
Ouh là là !
... et l' éradication du gluten ? Ouai hein ...
-
@funge
@Julien-Millot a dit dans IA & Hermann Rorschach :@funge , tu disposes de l'infrastructure pour faire de l'entraînement de modèle ?
-
@Dave2000 tu peux louer des gpu sur divers sites dont google ou aws pour quelques centimes de l'heure. En local aussi c'est possible pour des petits modèles avec une carte graphique, à partir de 8go de vram je pense
-
@Dave2000 tu parles d'inférence pas d’entraînement. Avec l'infra dont tu parles tu peux effectivement fine-tuner un modèle de diffusion mais certainement pas l'entrainer. J'ai un GPU compatible CUDA sur mon laptop et une instance de stable diffusion (ainsi que ollama pour inférer des llm open sourcés) qui tourne parfaitement bien en local y compris pour du Low Rank, mais d'ici à entraîner mon propre llm ou modèle de diffusion localement c'est pas demain la veille.
-
@Julien-Millot c'est possible sur du texte je pense, ou même des images mais là le problème c'est le temps que ça va prendre.
-
@funge a dit dans IA & Hermann Rorschach :
@Julien-Millot c'est possible sur du texte je pense, ou même des images mais là le problème c'est le temps que ça va prendre.
Tu peux effectivement entraîner un modèle "léger", (300 millions de poids) sur un ordi de gamer en 5 ou 6 jours mais ça reste très théorique. Le gros problème c'est qu'avec une infra bricolée (et un data set que tu auras volé toi même, soyons clair) tu as énormément de risque que ça crash et dans ce cas là il faut comprendre d'où ça vient et reprendre de zéro... Et lorsque tu auras éventuellement réussi à entraîner ton modèle de 300M avec un dataset tout pété, tu auras potentiellement l'impression de parler à un copain sous cocktail chimique n'ayant pas dormi depuis 3 jours en free party
-
@Julien-Millot tu peux sauvegarder ton training régulièrement au nombre d'epochs ou de steps que tu veux. Un pc de gamer si c'est du haut de game ça doit être abordable pour les plus petits modèles d'image ou les loras. Faut tester pour savoir, comme souvent dans ce domaine, je suis moins pessimiste que toi en tout cas.
Edit: ici il fait un lora sur sd1.5 en 20mn avec 8go de vram et 16mo de ram, une carte moyenne gamme.
-
@funge oui pour du low rank, mais c'est pas vraiment de l'entraînement c'est plus de l'optimisation de poids. C'est juste que tu avais l'air de dire qu'on pouvait facilement s'émanciper des gros modèles propriétaires en entraînant sur des datasets perso... Pour le moment c'est pas vraiment le cas à performances équivalentes... Et je suis pas pessimiste 😁 ça bouge vite (yaqua voir ollama comment ça s'est étoffé)
-
@Julien-Millot pour les chatbots oui c'est possible. Du fine tune oui à partir de llm open sources. Pas avec mon téléphone par contre donc je peux pas tester. je faisais tout par cloud quand j'avais un ordi. ça coûtait quelques euros pour un training.
-
-
Ouai pour moi entraîner des loras c'est suffisant si on dispose de bon modèles de base. effectivement faire un modèle de zero c'est une autre histoire, mais il y aurait 200 000 modèles open source disponibles pour le texte j'ai pu lire quelque part
-
« 90 % du contenu généré par IA en 2026 » : comment Internet est en train de mourir à très haute vitesse
Internet est mort, cette fois c’est quasi sûr (et ce n’est pas que de la faute de l’IA)
Si votre feed est envahi par des bots, du spam, et des images générées par IA, vous serez ravis d’apprendre que selon la Dead Internet Theory, ça ne va que s’aggraver.
Le HuffPost (www.huffingtonpost.fr)
-
Antonin Bergeaud, lauréat du Prix du meilleur jeune économiste 2025 : « L’Europe doit s’engager à fond dans l’intelligence artificielle »
Antonin Bergeaud est récompensé, ce lundi 19 mai, du prix du meilleur jeune économiste 2025, décerné par « Le Monde » et le Cercle des économistes. Professeur associé à HEC Paris, il est spécialiste de la croissance et de la productivité.
Le Monde.fr (www.lemonde.fr)
il a aussi une bonne tête du meilleur jeunevieux tout court !!! on est pas dans la merde !!!
-
@Deno L' article est payant, dommage, j' aimerais bien savoir ce qui génère autant d' enthousiasme chez cette homme qui a une tête à inventer le minitel et le MO5.
-
Yep je sais , mais le titre est la photo ça fait froid dans le dos !
-
Investir dans l'intelligence tout court n'a jamais été une manoeuvre très profitable... Tous les espoirs se tournent donc vers l'intelligence artificielle. Je vois pas ce qu'il y a d'étrange à cela... 😁
-
"L'Obsolescence de l'homme" de Gunther Anders