Как дела!? Вторник, это так. Ха! Ну… Суперсогласование в ИИ возможно, но как вы думаете, возможно ли оно в людях!? Я так не думаю! Но никто не может это контролировать. Наши представления об обществе, этике, границах и т. д. изменились гораздо быстрее, чем мы ожидали.

Мы смотрим ролики со стрельбой в школе, ролики Кардашьян и забавные ролики всего за 30–90 секунд! И нас даже не тревожит то, что всего за 1 минуту мы почувствовали гамму эмоций.

Мы слишком много отдаем себя социальным сетям и знаем, что не будем иметь никакого контроля над использованием социальных сетей и в будущем. Поэтому важно разработать методы согласования, чтобы улучшить ИИ вокруг нас, пока не стало слишком поздно.

Давайте углубимся в исследование автоматизированного выравнивания!

Исследование согласования направлено на то, чтобы общий искусственный интеллект (AGI) соответствовал человеческим ценностям и следовал человеческим намерениям.

Итеративный эмпирический подход, пытаясь согласовать высокоэффективные системы ИИ, мы можем узнать, что работает, а что нет, тем самым совершенствуя нашу способность делать системы ИИ более безопасными и согласованными. Используя научные эксперименты, мы изучаем, как масштабируются методы выравнивания и где они ломаются.

Конечная цель — создать достаточно согласованные системы искусственного интеллекта, чтобы существенно продвинуть сами исследования согласованности.

1. Обучение систем искусственного интеллекта с использованием обратной связи от людей

2. Обучение систем искусственного интеллекта для помощи в человеческой оценке

3. Обучение систем искусственного интеллекта проведению исследований по согласованию

Приведение систем искусственного интеллекта в соответствие с человеческими ценностями также ставит ряд других важных социотехнических задач, таких как принятие решения о том, под кого должны быть ориентированы эти системы.

В прошлом году OpenAI опубликовала исследование по методам выравнивания. Они подготовили и поделились с общественностью некоторыми результатами исследований.

OpenAI заявила: «Мы решаем проблемы согласования как в наших наиболее эффективных системах искусственного интеллекта, так и проблемы согласования, с которыми мы ожидаем столкнуться на нашем пути к AGI.

Наша главная цель — продвинуть текущие идеи согласования как можно дальше, а также понять и точно задокументировать, как они могут добиться успеха или почему они потерпят неудачу.

Мы считаем, что даже без принципиально новых идей выравнивания мы, вероятно, сможем создать достаточно согласованные системы ИИ, чтобы существенно продвинуть сами исследования выравнивания.

Несогласованный ИИИ может представлять существенные риски для человечества, а решение проблемы согласования ИИИ может оказаться настолько трудным, что потребует совместной работы всего человечества».

Мы надеемся, что это будет вопросом времени, когда все ведущие технологические компании поделятся подходами и методами SuperAlignment AI, которые будут интегрированы в каждую систему искусственного интеллекта.

Подпишитесь, чтобы узнать больше об искусственном интеллекте! Путешествие — ИИ Жасмин Бхарадия