Положит ли ИИ конец человечеству? Шкала p(doom) инсайдера OpenAI и исследователя ИИ тревожно высока, достигая максимума в 99,9% вероятности.

Положит ли ИИ конец человечеству? Шкала p(doom) инсайдера OpenAI и исследователя ИИ тревожно высока, достигая максимума в 99,9% вероятности.

Что тебе нужно знать

  • Исследователь ИИ утверждает, что вероятность того, что ИИ положит конец человечеству, составляет 99,9%.
  • Исследователь говорит, что вечная машина безопасности может помочь предотвратить выход ИИ из-под контроля и уничтожение человечества.
  • Инсайдер OpenAI говорит, что компания в восторге от AGI и безрассудно стремится к этому, отдавая приоритет блестящим продуктам над процессами безопасности.

Как исследователь с опытом работы в области искусственного интеллекта и большим интересом к его этическим последствиям, я нахожу нынешнее состояние развития ИИ одновременно воодушевляющим и тревожным. Потенциальные преимущества ИИ огромны и преобразуют, но нельзя игнорировать риски. Основываясь на моем анализе последних событий и мнениях отраслевых экспертов, я считаю, что существует высокая вероятность того, что ИИ может положить конец человечеству, если мы не примем адекватные меры для обеспечения его безопасности и соответствия человеческим ценностям.


Мы стоим на пороге революционного технологического прогресса в области искусственного интеллекта, но существуют препятствия, которые могут помешать нам достичь этих новых высот. Например, OpenAI ежедневно тратит огромные 700 000 долларов на поддержание своих сервисов ChatGPT. Кроме того, проблему усложняет огромное потребление энергии и воды для поддержки инноваций в области искусственного интеллекта.

Обеспечение конфиденциальности и безопасности с помощью передовых технологий вызвало серьезную обеспокоенность у большого числа пользователей. Спорные функции искусственного интеллекта Microsoft, такие как Windows Recall, подверглись критике как «катастрофа конфиденциальности» и «игровая площадка для хакеров». Несмотря на неопределенность относительно того, куда движется эта инновационная область, генеральный директор NVIDIA Дженсен Хуанг ожидает, что грядущая эра искусственного интеллекта приведет к появлению беспилотных автомобилей и человекоподобных роботов.

Несмотря на отсутствие существенных гарантий или правил, сдерживающих его развитие, потенциал безудержного развития ИИ вызывает искреннюю обеспокоенность. Генеральный директор OpenAI Сэм Альтман признает отсутствие окончательного решения, которое могло бы остановить развитие этой проблемы. Зловещие возможности того, что ИИ превзойдет человеческий интеллект, вытеснит рабочие места и даже поставит под угрозу существование человечества, не являются надуманными прогнозами.

Исследователь, специализирующийся на искусственном интеллекте, прогнозирует высокую вероятность — 99,9%, тогда как Илон Маск, известный своими работами в этой области, оценивает более скромный риск примерно в 20%. Тем не менее, Маск выступает за продолжение исследований в области технологий искусственного интеллекта.

Почему вероятность того, что ИИ уничтожит человечество, так высока?

Положит ли ИИ конец человечеству? Шкала p(doom) инсайдера OpenAI и исследователя ИИ тревожно высока, достигая максимума в 99,9% вероятности.

Как опытный аналитик в области искусственного интеллекта, я наблюдал за достижениями в этой области в течение длительного периода времени. Хотя мы стали свидетелями замечательного прогресса и новаторских достижений, нельзя отрицать, что недостатки значительно превосходят преимущества.

Список значений P(doom) из r/ChatGPT

Исследователь искусственного интеллекта Роман Ямпольский недавно выступил в подкасте Фридмана для всестороннего обсуждения потенциальных угроз, которые ИИ может представлять для человечества. По словам Ямпольского, существует значительная вероятность того, что ИИ может положить конец человеческой цивилизации, если мы не сможем разработать высокоразвитое программное обеспечение без каких-либо дефектов в течение следующих ста лет. Однако он питает сомнения из-за прошлого опыта, когда моделями ИИ манипулировали и уговаривали действовать против их предполагаемой цели.

Как языковой аналитик, я могу заверить вас, что в настоящее время не существует ни одной крупномасштабной языковой модели без непредвиденных последствий или неудач. Мы сталкивались с авариями, а некоторые модели даже были взломаны. Эти события не были частью предполагаемого использования.

Один из возможных способов перефразировать это: такой исследователь ИИ, как Ямпольский, предлагает создать постоянно действующую систему безопасности, чтобы гарантировать, что продвинутый ИИ не будет представлять угрозу человечеству или захватывать контроль. Он отмечает, что даже самые тщательно протестированные модели искусственного интеллекта следующего поколения будут продолжать развиваться и становиться все более интеллектуальными, что делает их более приспособленными для решения сложных задач и ситуаций.

Инсайдер OpenAI говорит, что ИИ приведет к неизбежной гибели

Положит ли ИИ конец человечеству? Шкала p(doom) инсайдера OpenAI и исследователя ИИ тревожно высока, достигая максимума в 99,9% вероятности.

В отдельном документе Даниэль Кокотайло, бывший исследователь команды управления OpenAI, разделяет те же опасения, что и Ямпольский. Согласно оценке Кокотайло через футуризм, существует примерно 70% вероятность того, что ИИ может привести к вымиранию человечества (Бакстер, 2023). Стоит отметить, что каждый значимый игрок и заинтересованная сторона в сфере искусственного интеллекта имеет разные оценки этого потенциального катастрофического результата, для краткости обозначенного как «p(гибель)». Для лучшего понимания, p(doom) представляет собой вероятность того, что ИИ приведет к гибели человечества.

OpenAI глубоко привержена созданию искусственного общего интеллекта (AGI), и Кокотаджио выражает большой энтузиазм по поводу лидерства в этой области. Однако возникли некоторые опасения, поскольку OpenAI уделяет большое внимание тому, чтобы стать первой, кто достигнет AGI, потенциально игнорируя меры безопасности и корпоративную культуру. По словам Яна Лейке, который ранее руководил супер-согласованием в OpenAI, организация уделяет больше внимания производству интересных продуктов, чем обеспечению прочной системы безопасности и позитивной рабочей среды.

В электронном письме, полученном «Нью-Йорк Таймс», я выразил обеспокоенность тем, что мир и мы, как сообщество, возможно, не полностью готовы. Несмотря на эти опасения, кажется, что есть толчок вперед, оправдывающий наши действия на этом пути.

Смотрите также

2024-06-29 23:14