Christian Lutz-Weicken
👤 SpeakerVoice Profile Active
This person's voice can be automatically recognized across podcast episodes using AI voice matching.
Appearances Over Time
Podcast Appearances
Also irgendeiner, habe ich auf LinkedIn gesehen, der hat dann als einzigen Test
Schreib mir mal einen coolen LinkedIn-Post und dann hat das halt mit dem LinkedIn-Log nicht so geklappt.
Natürlich.
Und dann so das Fazit war dann, ist scheiße, bringt nichts.
Aber das ist halt auch so, dass viele Leute, die haben auch gar nicht, wie soll ich sagen, die haben kein...
Die interessieren sich auch gar nicht dafür, auf ihrem Rechner irgendwelche Python-Pakete zu installieren für irgendwelche Gen-AI-Lokalsachen oder halt auch Jellyfin-Server.
Das sind halt Freak-Sachen.
Und ich meine, ChatGPT hatte ja diesen Agent.
Das war dann halt so ein Browser in einer virtuellen Maschine.
Aber es ist halt eine virtuelle Maschine, die nichts mit mir zu tun hat.
Das ist ja ein Riesenunterschied, ob dieses Ding halt in meinem Netzwerk hängt.
Weil das geht auch.
Und auch diesen Ansatz, diese Mischung aus Lokal und Cloud-LLM, das ist auch was, was viele Leute nicht verstanden haben.
Das verstehe ich auch, weil das schwierig zu checken ist, dass...
OpenClaw lokal bei mir auf einem Rechner wohnt, die ganze Intelligenz aber in meinem Beispiel von Cloud 4.5 Opus in der Cloud kommt, aber er gleichzeitig auch Gen-AI-Sachen lokal ausführt, wie Musik generieren und Bilder und so weiter.
Aber das Krasse ist halt, du kannst theoretisch das Ding auch...
die Intelligenz auch lokal in deinem Netzwerk haben.
Also ich habe jetzt gerade mir ein Mac-Studio aus dem Verlag geholt und da will ich jetzt mal gucken, den will ich jetzt ins Netz hängen und der hat halt 512 GB schnellen RAM und da will ich mal gucken, ob ich ein kompetentes, lokales LLM finde und hänge den dann in mein Netz und benutze das als Gehirn von
Open Claw geht nicht gut über die Lippen.
Das läuft nicht auf 512, sondern ich glaube, das braucht ein bisschen mehr.