Вопросы и ответы: Эксперты говорят, что остановить ИИ невозможно — или желательно

Новости

ДомДом / Новости / Вопросы и ответы: Эксперты говорят, что остановить ИИ невозможно — или желательно

May 17, 2023

Вопросы и ответы: Эксперты говорят, что остановить ИИ невозможно — или желательно

К

Лукас Мериан

Старший репортер, Computerworld |

Поскольку инструменты генеративного искусственного интеллекта, такие как ChatGPT от OpenAI и Bard от Google, продолжают развиваться с головокружительной скоростью, поднимая вопросы о надежности и даже правах человека, эксперты размышляют, можно ли и как можно замедлить эту технологию и сделать ее более безопасной.

В марте некоммерческая организация Future of Life Institute опубликовала открытое письмо с призывом приостановить на шесть месяцев разработку ChatGPT, чат-бота на основе искусственного интеллекта, созданного OpenAI, поддерживаемой Microsoft. В письме, которое сейчас подписали более 31 000 человек, подчеркивается, что мощные системы искусственного интеллекта следует разрабатывать только после того, как можно будет управлять их рисками.

«Должны ли мы развивать нечеловеческий разум, который мог бы в конечном итоге превзойти нас численностью, перехитрить, устареть и заменить нас? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — спросило письмо.

Соучредитель Apple Стив Возняк и генеральный директор SpaceX и Tesla Илон Маск присоединились к тысячам других подписавшихся сторон и согласились, что ИИ представляет «серьезные риски для общества и человечества, как показали обширные исследования и признаны ведущими лабораториями ИИ».

В мае некоммерческая организация «Центр безопасности ИИ» опубликовала аналогичное открытое письмо, в котором заявила, что ИИ представляет собой угрозу глобального вымирания, сравнимую с пандемиями и ядерной войной. Под этим заявлением подписались многие из тех самых ученых и руководителей ИИ, которые принесли генеративный ИИ в массы.

Ожидается также, что рабочие места будут заменены генеративным ИИ — рабочих мест будет много. В марте Goldman Sachs опубликовал отчет, в котором оценивается, что генеративный ИИ и его способность автоматизировать задачи могут повлиять на 300 миллионов рабочих мест по всему миру. А в начале мая IBM заявила, что приостановит планы по заполнению около 7800 должностей, и подсчитала, что почти три из 10 должностей в бэк-офисе могут быть заменены искусственным интеллектом в течение пяти лет, согласно отчету Bloomberg.

Хотя прошлые промышленные революции автоматизировали задачи и заменили рабочих, эти изменения также создали больше рабочих мест, чем ликвидировали. Например, для работы парового двигателя требовался уголь, а также люди, чтобы его строить и обслуживать.

Генеративный ИИ, однако, не является эквивалентом промышленной революции. ИИ может обучаться сам, и он уже усвоил большую часть информации, созданной людьми. Вскоре ИИ начнет дополнять человеческие знания своими собственными.

Джефф Шефер, руководитель отдела ответственного ИИ, Booz Allen Hamilton

Джефф Шефер — руководитель отдела ответственного ИИ в компании Booz Allen Hamilton, подрядчике правительства и военного ведомства США, специализирующемся на разведке. Сюзанна Шаттак — руководитель отдела продуктов компании Credo AI, поставщика SaaS-решений для управления ИИ.

Недавно Computerworld поговорил с Шефером и Шаттуком о будущем искусственного интеллекта и его влиянии на рабочие места и общество в целом. Ниже приводятся выдержки из этого интервью.

Какие риски представляет генеративный ИИ?Шаттак: «Алгоритмическая предвзятость. Это системы, которые делают прогнозы на основе закономерностей в данных, на которых они обучены. И, как мы все знаем, мы живем в предвзятом мире. Данные, на которых мы обучаем эти системы, часто предвзяты, и если мы не будем осторожны и вдумчивы в том, как мы обучаем или обучаем эти системы распознавать закономерности в данных, мы можем непреднамеренно научить их или научить делать предвзятые прогнозы.

«Объясняемость. Многие из более сложных моделей [на большом языке], которые мы можем построить в наши дни, совершенно непрозрачны для нас. Мы не до конца понимаем, как именно они делают прогнозы. -доверительная или очень чувствительная среда принятия решений, может быть сложно доверять системе ИИ, процесс принятия решений которой вы не до конца понимаете.И именно поэтому мы наблюдаем усиление регулирования, ориентированного на прозрачность систем ИИ.

«Я приведу вам очень конкретный пример: если я собираюсь развернуть систему искусственного интеллекта в медицинском здравоохранении, где эта система будет давать определенные рекомендации врачу на основе данных пациента, тогда объяснимость будет очень важно, чтобы этот врач был готов доверять системе.