Salut
Depuis l’annonce d’Andrej karpathy Obsidian est devenu un outil indispensable pour l’IA après son post sur X de la manière dont il travaille avec voir ci-dessous :
Je vois passer pas mal de discussions autour de l’approche d’Andrej Karpathy sur les “bases de connaissances LLM” (Obsidian + LLM qui construit et maintient un wiki automatiquement).
Pour ceux qui ont testé ou réfléchi au sujet :Vous pensez que c’est une vraie évolution dans la manière d’utiliser les LLM, ou plutôt une hype un peu survendue ?
Je trouve l’idée super intéressante (notamment pour la capitalisation de connaissances et les connexions entre concepts), mais j’ai aussi des doutes sur :
- la fiabilité à long terme (hallucinations, incohérences)
- la scalabilité sans RAG plus solide
- le côté “le LLM maintient tout seul”
Curieux d’avoir vos retours d’expérience concretsVous utilisez ce genre de setup ? Ça tient la route dans le temps ou pas ?
A+