Ben Fritz
đ€ PersonAppearances Over Time
Podcast Appearances
In the AI world, those wrong answers, expressed with total confidence, are known as hallucinations.
In the AI world, those wrong answers, expressed with total confidence, are known as hallucinations.
Es ist dieser unvergessliche Paradoxus, wo je klĂŒger die AIs werden, desto mehr sicherer werden sie. Die Art und Weise, wie sie programmiert werden, um komplexe Probleme zu lösen, ist es, sich sicher zu sein, dass sie es tun können. Die Programmer sind alle in einer kompetitiven Runde mit einander, um den klugsten AI zu haben, der die coolsten Dinge machen kann.
Es ist dieser unvergessliche Paradoxus, wo je klĂŒger die AIs werden, desto mehr sicherer werden sie. Die Art und Weise, wie sie programmiert werden, um komplexe Probleme zu lösen, ist es, sich sicher zu sein, dass sie es tun können. Die Programmer sind alle in einer kompetitiven Runde mit einander, um den klugsten AI zu haben, der die coolsten Dinge machen kann.
Und sie haben bemerkt, dass es besser ist, auf der Seite davon zu gehen, als auf der Seite davon zu sagen, ich weiĂ es nicht. Es gibt einige Versuche, das zu tun. Ich dachte, das Interessanteste war, dass AIs auf der Grundlage der Trainingsdaten gebaut sind und dass sie mehr Informationen einsetzen mĂŒssen, training data that includes people not knowing things.
Und sie haben bemerkt, dass es besser ist, auf der Seite davon zu gehen, als auf der Seite davon zu sagen, ich weiĂ es nicht. Es gibt einige Versuche, das zu tun. Ich dachte, das Interessanteste war, dass AIs auf der Grundlage der Trainingsdaten gebaut sind und dass sie mehr Informationen einsetzen mĂŒssen, training data that includes people not knowing things.
Usually they're learning from data, from facts, things people know, people talking about stuff they know, writing about stuff they know. So can you find a way in the earliest stages to introduce this concept to a new AI? Of course, it's complicated.
Usually they're learning from data, from facts, things people know, people talking about stuff they know, writing about stuff they know. So can you find a way in the earliest stages to introduce this concept to a new AI? Of course, it's complicated.
If you teach it, I don't know too much, then it's going to start doubting itself and it's going to not come up with answers that it actually could come up with. But clearly right now, a growing number of people think it's going too far in the other direction.
If you teach it, I don't know too much, then it's going to start doubting itself and it's going to not come up with answers that it actually could come up with. But clearly right now, a growing number of people think it's going too far in the other direction.