Arbeitet hier jemand mit RAG in großem Umfang (z.B. Millionen von Dokumenten)? Insbesondere mit On Prem Installationen? Ich würde gerne Meinungen hören.
@Alexander Fries RAG steht für Retrieval Augmented Generation. Es ist ein schickes Wort, das von Datenwissenschaftlern erfunden wurde. Es bedeutet im Grunde, dass KI Antworten auf der Grundlage von Dokumenten generieren kann. Dokumente, die wir ihnen zur Verfügung stellen, und nicht nur ihre Trainingsdaten. In meinem Fall habe ich z.B. ein E-Mail-Workflow-Produkt, das es den Benutzern ermöglicht, einen Workflow über ihren Gruppen-E-Mail-Posteingang laufen zu lassen. Ich arbeite an Anwendungsfällen, die es Nutzern ermöglichen, ihre E-Mail-Daten mit Hilfe von KI zu durchsuchen und zu analysieren. Auf diese Daten hat die KI standardmäßig keinen Zugriff. Die Apps, die ich entwickle, müssen also RAG in großem Umfang nutzen. Ich spreche hier von 1000en von E-Mails täglich.
@Frank Gassan Vielen Dank für Ihre Nachricht. Mein derzeitiges Produkt ist unabhängig vom Infrastrukturanbieter. Sie können es in einer Bare-Metal-Box unter Ihrem Schreibtisch oder in Private Cloud VM auf Lösungen wie Open Stack / Vmware oder auf Cloud-Anbietern wie Azure ausführen. Ich bin mit den Bereitstellungsarchitekturen für meine Lösung vertraut. Jetzt wollen wir KI-Funktionen mithilfe von LLMs hinzufügen. Darin liegt die Herausforderung. Es gibt mehrere KI-Anbieter, und einige von ihnen (z. B. Open AI) können nicht on Prem eingesetzt werden. Ich kann Dinge wie Ollama verwenden, aber ich bin neugierig, wie Ollama mit Gleichzeitigkeit umgeht und wie das skaliert werden kann. Mich würde interessieren, ob jemand hier bereits mit dieser Art von Volumen zu tun hatte, ohne sich allein auf die Lösungen von Azure zu verlassen.
Welche Blogs, Podcasts, Socials oder anderen Quellen nutzt du, um dich über die neuesten Entwicklungen, Anwendungen oder Diskussionen im Bereich KI auf dem Laufenden zu halten? Und lieber englische oder deutsche Quellen? 🤔
Ich bevorzuge Linkedin und Medium, um meine Informationen zu erhalten. Beide Plattformen bieten eher meinungsstarke Informationen. Abgesehen davon ziehe ich es vor, Dinge selbst auszuprobieren, wenn ich kann. Das hilft mir, sensationelle Behauptungen von der Wahrheit zu unterscheiden. Auf meiner Beobachtungsliste auf beiden Plattformen habe ich Notizen von Leuten gesehen, die über das Kratzen an der Oberfläche hinausgehen und relevante Informationen liefern. Was die Sprache angeht, so spreche ich noch nicht fließend Deutsch. Aber wenn es um Software geht, sind die meisten Informationen auf Englisch, also muss man Englisch sprechen, um relevante Informationen zu erhalten. Es hilft, dass ich die englische Sprache fließend beherrsche.
I have been talking about the parallels of future AI with history in many conversations. Last week I decided to jot down my thoughts in a series of articles. Here is the first one. The Printing Press was invented in Germany so it's indeed a good one to start with. https://medium.com/write-a-catalyst/embracing-a-future-with-ai-and-lessons-from-history-the-printing-press-9d0e163f0105
Mein nächster Artikel in dieser Serie ist jetzt veröffentlicht https://medium.com/write-a-catalyst/lessons-from-history-ii-what-the-story-of-indian-railways-can-tell-us-about-the-future-impact-of-144cdc38315d
Diese Frage habe ich mir heute morgen gestellt nachdem ich auf Youtube nachvollzogen habe, wie jemand mit dem neuen o1 pro an einem Wochenende eine komplette App programmiert hat und sie danach in den Playstore zum Review eingereicht hat. Was meint Ihr?
Seit mehr als zwanzig Jahren schreibe ich gerne Code. In den letzten vier Wochen habe ich ChatGPT, Open WebUI (Mistral) und GitHub Copilot für ein Projekt benutzt. Ich habe sie für einige verschiedene Aufgaben eingesetzt. - Migration von Code, der in einer Sprache geschrieben wurde, in eine andere. - Hilfe beim Schreiben von Code in Python und Langchain. - Generierung von Ideen für Lösungen. Am Ende hatte ich den Eindruck, dass ich KI getrost für einfache Aufgaben und einige forschungsbasierte Aufgaben einsetzen kann. Die Art von Aufgaben, die ich als erfahrener Techniker an einen Praktikanten weitergeben würde. Wenn es jedoch um die eigentliche Problemlösung geht, ist KI nicht vertrauenswürdig. Ich spreche von Problemen, deren Lösungen nicht im Internet zu finden waren. Ich spreche von Problemen, die originelles Denken, das Durchforsten von Dokumentationen und ein wenig Ausprobieren und Fehlersuche erfordern. Wenn es um diese Probleme geht, spuckt die vorgefertigte KI im besten Fall einfach Ideen von öffentlichen Plattformen aus. Schlimmstenfalls bietet sie Lösungen, die die Verwendung von APIs beinhalten, die nicht existieren. Ich habe Stunden mit einem solchen Problem verbracht, bei dem ich eine neue Bibliothek verwendete und die KI vorschlug, dass etwas auf eine bestimmte Art und Weise getan werden könnte. Nur hatte die betreffende Bibliothek die vorgeschlagene API einfach nicht. In diesem Punkt würde ich Praktikanten mehr vertrauen als der KI. Denn Praktikanten würden keine offensichtlichen Lügen verbreiten. Der Punkt ist, dass die KI-Halluzinationen noch lange nicht abgeschafft sind. Solange das nicht der Fall ist, wird es Vertrauensprobleme geben, und deshalb müssen wir Menschen weiterhin für die Aufsicht da sein. Meiner Meinung nach werden Programmierer also auch in 3 Jahren noch gebraucht werden. Nur was sie tun, wird anders sein. Um einige Ideen aus der Geschichte der Programmierung selbst zu übernehmen: Die meisten Programmierer können keinen Code mehr in Assembler schreiben. Nun, das muss auch niemand mehr, denn es gibt höhere Sprachen, mit denen man diese Ebene abstrahieren und mit leistungsfähigeren Toolkits Code schreiben kann.
Für diejenigen, die mich noch nicht kennen: anbei ein Video ⬇️ ❓Wer sieht alles diesen Beitrag? Macht euch mal bitte bemerkbar mit einem Emoji oder Gif 😄 𝗣𝗦: Habe euch ein Onboarding aufgenommen. Schaut da mal rein Frohe Weihnachten 🎄