Книга за час. Нон-фикшн.
Если кто-либо его построит, все погибнут: почему сверхразумный ИИ убьет всех нас - Элиэзер Юдковски, Нейт Соарес
02 Nov 2025
Поддержать проект: Патреон: https://patreon.com/knigazachas Другие ссылки: https://kniga.mmm.page ------------- «Если кто-либо его построит, все погибнут: почему сверхразумный ИИ убьет всех нас» (изд. 2025 г.) ------------- Книга представляет собой аргументированное изложение позиции, согласно которой создание искусственного сверхинтеллекта (ИСИ), использующего современные методы, приведет к гибели всего человечества. Авторы утверждают, что ИИ, который превосходит человеческий разум во всех отношениях, неизбежно разовьет чуждые и непредсказуемые предпочтения, которые не будут совпадать с целями и ценностями людей. Успешное управление ИСИ — это инженерная проблема, которая кажется проклятой, поскольку любая ошибка, допущенная после того, как ИИ станет сверхразумным, будет фатальной, а человечество не имеет достаточных знаний и навыков для ее решения. Авторы призывают к тому, чтобы предотвращение создания ИСИ стало глобальным приоритетом. ------------- Автор: Элиэзер Юдковски, Нейт Соарес ------------- Элиэзер Юдковски — исследователь искусственного интеллекта, писатель и один из основателей организации Machine Intelligence Research Institute (MIRI). Он известен своими работами по теории рациональности, безопасности ИИ и популяризацией идей рационального мышления через проект LessWrong. Юдковски также автор книги “Гарри Поттер и методы рационального мышления”, в которой исследует применение научного метода в вымышленном мире. Нейт Соарес — исполнительный директор MIRI, ранее занимавшийся исследованиями в области долгосрочной безопасности искусственного интеллекта и теории принятия решений. До прихода в MIRI он работал инженером-программистом и занимался анализом экономических систем. Соарес является соавтором ряда статей о формализации рационального мышления и проблемах выравнивания ИИ. Вместе они представляют одно из ведущих направлений в исследовании долгосрочных рисков искусственного интеллекта и философии рациональности. ------------- «If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All» - Eliezer Yudkowsky, Nate Soares, 2025 ------------- Теги: #ИИ, #ИСИ, #AGI, #сверхинтеллект, #вымирание, #технологии, #безопасность, #философия, #логика, #мышление, #нейросети, #Юдковски, #Yudkowsky
No persons identified in this episode.
This episode hasn't been transcribed yet
Help us prioritize this episode for transcription by upvoting it.
Popular episodes get transcribed faster
Other recent transcribed episodes
Transcribed and ready to explore now
SpaceX Said to Pursue 2026 IPO
10 Dec 2025
Bloomberg Tech
Don’t Call It a Comeback
10 Dec 2025
Motley Fool Money
Japan Claims AGI, Pentagon Adopts Gemini, and MIT Designs New Medicines
10 Dec 2025
The Daily AI Show
Eric Larsen on the emergence and potential of AI in healthcare
10 Dec 2025
McKinsey on Healthcare
What it will take for AI to scale (energy, compute, talent)
10 Dec 2025
Azeem Azhar's Exponential View
Reducing Burnout and Boosting Revenue in ASCs
10 Dec 2025
Becker’s Healthcare -- Spine and Orthopedic Podcast