Очевидно, что автор книги – философ, который допускает очень много условностей, задаёт вопросы, нагромождает концепции, многие вопросы остаются без ответа, но и масштаб освещаемой проблемы достаточно велик. Так что любителям конкретики, возможно, книга не понравится, это не научный труд и не художественное произведение, это рассуждения о том, что будет если появится сверхразум, будет ли он защищать общечеловеческие ценности, или уничтожит человечество, как менее разумный вид.
Книга читается достаточно легко, но иногда хочется перелистнуть несколько страниц, когда автор начинает философствовать и писать одно и тоже разными словами.
Пусть объём книги вас не пугает, примерно 1/5 часть отведена для примечания, где указаны различные источники, на тот случай, если вы решите рассмотреть вопрос искусственного интеллекта более детально.
Чрезвычайно интересная книга. Особенно для тех, кто интересуется будущим и перспективами развития искусственного интеллекта. Очерки о сверхразуме достойны многочисленных оваций
Подробно рассматриваются сценарии создания и развития интеллекта превосходящего человеческий.
Вероятно даже излишне подробно, так как размышления зачастую уходят в ветки развития со слабой или ошибочной предпосылкой в основе. Несмотря на очевидно высочайший уровень интеллекта автора, ошибки в такой масштабной аналитике неминуемы. Книга от этого начинает восприниматься как тяжелая в восприятии или специализированная.
Однако систематизация путей развития ИИ очевидно полезна. Поэтому с глубокой благодарностью к автору 5 баллов.
Начало отличное, много дельных мыслей, но примерно с середины чтение усложнилось.
Рекомендую людям с интересом к физике, математике и ИИ. Мне (гуманитарию) не зашло
Все рецепты ограничения ИИ и контроля над ним, изложенные автором, IMHO, имеет смысл и необходимо применять только для узкоспециализированных ИИ, которые по определению не могут иметь самосознания и отличаются от тупого механизма только масштабами последствий их неправильного применения. ИИ, созданный для производства скрепок, как раз из этой группы. Но создается мнение, что автор имеет ввиду ограничение сильного ИИ. Глупо даже пытаться применить их в отношении сильного ИИ. Почему мы должны судить о нем на примере самых худших представителей рода человеческого? Разум, свободный от примитивных мотивов выживания, самоутверждения и зависти, не только не опасен для человечества, но скорее благо для нас. Мне гораздо ближе позиция С. Лема, изложенная в его Голем XIV, "Высочайший Разум не может быть нижайшим рабом".
Не могу рекомендовать, т.к автор за массой теоретических выкладок, очень убедительных ограничивается формулировками "допустим ", «возможно», «вероятно», «может быть». Меня хватило на 2/3 этого гадания на кофейной гуще.
Все можно было уложить по существу страниц в 25-30.
Идея книги мне очень не понравилась по той простой причине, что автор не понимает элементарной вещи, сколь бы не был могуч интеллект, сам по себе он не может иметь мотивов для мышления, не связанных с той или иной соматикой. У человека есть соматика, поэтому есть добро и зло, есть войны, есть маньяки, есть садисты, серийные убийцы и т.д., а добро есть все то, что отрицает все злое, вредное, приносящее страдания соматике (психику я включаю в соматику). Ничего такого у сколь угодно мощной мыслящей машины быть не может по сути дела. У нее нет того, что может страдать и может желать. Желают люди, и страдают тоже люди. Шире, живые существа. Машина же по определению не обладает в себе тем, что может страдать.
Разумеется, создатель машины может вложить в нее стремление достигать цели сколь угодно злые. Но странно было бы представить себе коллектив ученых, имеющих целью уничтожение человечества, земли, солнечной системы, или ставящих сверхразуму аморальные и человеконенавистнические цели. Теоретически это возможно, но так же не может иметь места в реальности, как, скажем, желание у какого-нибудь нормального человека откусить себе язык, выколоть глаза или отрезать пальцы на ногах и руках без каких-либо веских причин.
Ник Бостром ничего этого не понимает. Он рассуждает так, как будто сверхразум только потому что он появился, может действовать, как какой-нибудь сумасшедший человечишка, если бы его наделили бесконечным могуществом. Сверхразум – машина, которая не имеет и не может иметь личных желаний. Все ее желания априори есть желания ее создателей. И не более того. А создатели никогда не вложат в свое создание ничего для себя вредного или не желательного. В конце концов, всегда можно этот сверхразум выключить или разрушить. Это первая заповедь. Никто никогда не станет создавать потенциально опасную машину, могущую стать неуправляемой.
Вывод: книгу читать забавно, но действительная, практическая ее ценность нулевая.
«Искусственный интеллект» kitobiga sharhlar, 7 izohlar