Hajm 446 sahifalar
2019 yil
Совместимость: Как контролировать искусственный интеллект
Kitob haqida
В массовом сознании сверхчеловеческий искусственный интеллект – технологическое цунами, угрожающее не только экономике и человеческим отношениям, но и самой цивилизации. Конфликт между людьми и машинами видится неотвратимым, а его исход предопределенным. Выдающийся исследователь ИИ Стюарт Рассел утверждает, что этого сценария можно избежать.
В своей новаторской книге автор рассказывает, каким образом люди уже научились использовать ИИ, в диапазоне от смертельного автономного оружия до манипуляций нашими предпочтениями, и чему еще смогут его научить. Если это случится и появится сверхчеловеческий ИИ, мы столкнемся с сущностью, намного более могущественной, чем мы сами. Как гарантировать, что человек не окажется в подчинении у сверхинтеллекта?
Для этого, полагает Рассел, искусственный интеллект должен строиться на новых принципах. Машины должны быть скромными и альтруистичными и решать наши задачи, а не свои собственные.
О том, что это за принципы и как их реализовать, читатель узнает из этой книги, которую самые авторитетные издания в мире назвали главной книгой об искусственном интеллекте.
Все, что может предложить цивилизация, является продуктом нашего интеллекта; обретение доступа к существенно превосходящим интеллектуальным возможностям стало бы величайшим событием в истории. Цель этой книги – объяснить, почему оно может стать последним событием цивилизации и как нам исключить такой исход.
Введение понятия полезности – невидимого свойства – для объяснения человеческого поведения посредством математической теории было потрясающим для своего времени. Тем более что, в отличие от денежных сумм, ценность разных ставок и призов с точки зрения полезности недоступна для прямого наблюдения.
Первыми, кто действительно выиграет от появления роботов в доме, станут престарелые и немощные, которым полезный робот может обеспечить определенную степень независимости, недостижимую иными средствами. Даже если робот выполняет ограниченный круг заданий и имеет лишь зачаточное понимание происходящего, он может быть очень полезным.
Очевидно, действия лояльных машин должны будут ограничиваться правилами и запретами, как действия людей ограничиваются законами и социальными нормами. Некоторые специалисты предлагают в качестве решения безусловную ответственность.
Иногда не понятно, я не понимаю фразу или перевод невнятный. Как например здесь:
«Будучи учеными, члены команды LIGO понимали, что все фрагменты знания, которыми они пользуются, включая ОТО Эйнштейна, находятся (и всегда будут находиться) в периоде апробации и могут быть сфальсифицированы в результате эксперимента.»
Правильным переводом видимо было бы не сфальсифицированы, а опровергнуты.
renew4 фальсифицируемость научной теории - это стандартный научный термин, почитайте карла поппера или хотя бы википедию.
поставлю вам лайк чтоб вы не расстраивались
книга интересна в первую очередь для тех кто интересуется развитием искусственного разума и всеми вопросами с этим связанных,в том числе и философских.написано недурно-советую почитать.
That was my first book on AI topic. I have read it in order to catch up with what is going on in this area. It was a good read. Except the chapter about theory of preferences. That chapter almost made me stop reading.
Мне не зашло. Автор может и признанный эксперт и много чего знает. Но когда излагает, получается каша (плюс еще перевод). Основы как-то криво описывает. И в какой-то момент сложилось впечатление, что страницы книги автора – место подискутировать и ответить кому-то персонально. Что не очень интересно читать.
более быстрые машины всего лишь быстрее дают вам неправильный ответ
обзор «Превосходства», написанный в соавторстве с Максом Тегмарком, Фрэнком Уилчеком и Стивеном Хокингом, вышел в Huffington Post. В нем была фраза из моего выступления в Даличе о величайшем событии в человеческой истории. Так я публично связал свое имя с убеждением в том, что
Izohlar, 4 izohlar4