Книги автора Элиезер Шломо Юдковски (Less Wrong)
Элиезер Шломо Юдковский (англ. Eliezer S. Yudkowsky, 11 сентября 1979) — американский специалист по искусственному интеллекту, исследующий проблемы технологической сингулярности и выступающий за создание Дружественного ИИ.
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI). Он исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса».
В начале 2009 года он участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см.? например, цепочку «теория развлечений».
Он автор нескольких научно-фантастических рассказов, в которых иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» (анг. Harry Potter and the Methods of Rationality) под псевдонимом Less Wrong.
Юдковский — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковский в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковский принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.
Элиезер Шломо Юдковски на английском языке: http://coollib.net/a/78271
Юдковский — сооснователь и научный сотрудник Института Сингулярности по созданию Искусственного Интеллекта Singularity Institute for Artificial Intelligence (SIAI). Он исследует те конструкции ИИ, которые способны к самопониманию, самомодификации и рекурсивному самоулучшению (Seed AI), а также такие архитектуры ИИ, которые будут обладать стабильной и позитивной структурой мотивации (Дружественный искусственный интеллект). Помимо исследовательской работы, Юдковский известен своими объяснениями сложных моделей на неакадемическом языке, доступном широкому кругу читателей, например, см. его статью «Интуитивное объяснение теоремы Байеса».
В начале 2009 года он участвовал в организации блога Less Wrong (менее неправ), нацеленного на оттачивание человеческой рациональности. После этого Overcoming Bias стал личным блогом Хансона. Материал, представленный на этих блогах, был организован в виде цепочек постов, которые смогли привлечь тысячи читателей — см.? например, цепочку «теория развлечений».
Он автор нескольких научно-фантастических рассказов, в которых иллюстрирует некоторые темы, связанные с когнитивной наукой и рациональностью. В неакадемических кругах больше известен как автор фанфика «Гарри Поттер и методы рационального мышления» (анг. Harry Potter and the Methods of Rationality) под псевдонимом Less Wrong.
Юдковский — один из ведущих западных трансгуманистов. Он смог привлечь внимание тысяч читателей своими принципиально новыми идеями. В частности, это его статьи о когнитивных искажениях в оценке глобальных рисков, которые открыли новый подход к этой проблеме. Многие ожидают, что Юдковский в своём институте сможет создать тот ИИ, который и приведёт человечество к позитивной сингулярности. Юдковский принадлежит идея о 5 уровнях шока будущего. Кроме того, он поставил эксперимент с ИИ в чёрном ящике (AI box experiment), в котором показал, что ИИ может уговорить человека выпустить этот ИИ из чёрного ящика, используя только текстовый канал коммуникации.
Элиезер Шломо Юдковски на английском языке: http://coollib.net/a/78271
Список книг (или ознакомительные фрагменты) автора Элиезер Шломо Юдковски (Less Wrong). Жанры написанных книг: Эпическая фантастика, Фэнтези: прочее, Научная Фантастика, Приключения, Психология, Языкознание, Публицистика, Критика, Юмор: прочее, Любовная фантастика, Фанфик.
Элиезер Шломо Юдковски (Less Wrong) - Девушка испорченная интернетом и есть Призванный Герой?! Жанр: Любовная фантастика |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления. Часть 4 (91-121) Жанр: Фанфик |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления. Часть 3 (61-90) Жанр: Фанфик |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления. Часть 2 (31-60) Жанр: Фанфик |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления. Часть 1 (1-30) Жанр: Фанфик |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления (Главы 1-122) Жанр: Фэнтези: прочее |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления (Главы 1–121) Жанр: Фанфик |
Элиезер Шломо Юдковски (Less Wrong) - Гарри Поттер и методы рационального мышления (Главы 1–106) Жанр: Фэнтези: прочее |