Новости

Джимми Уэйлс рассматривает возможность использования GPT для написания Википедии

Джимми Уэйлс рассматривает возможность использования GPT для написания Википедии

В интервью с Дэниелом Хэмбери лондонской газете Evening Standard Уэльс размышляет о некоторых проблемах, присущих этой технологии, в частности о ее склонности к «галлюцинациям» или откровенному придумыванию вещей, но отмечает, что «использование ИИ для утроения количества статей в Википедии не увеличит наши эксплуатационные расходы более чем на 1000 фунтов стерлингов в год».

По словам Уэйлса, одним из первых вариантов использования может быть использование большой языковой модели (LLM), такой как GPT, для сравнения нескольких статей, поиска точек, противоречащих друг другу, и использования полученных результатов для выявления фрагментов, которые могут понадобиться армии добровольцев Википедии. приложить немного работы.

Но он определенно рассматривает возможность того, чтобы эти LLM писали страницы.

«Я думаю, что мы все еще далеки от: «ChatGPT, пожалуйста, напишите статью в Википедии об Эмпайр-стейт-билдинг», — говорит он Хэмбери, — но я не знаю, как далеко мы от этого, конечно, ближе, чем я думал два года назад.»

Один из возможных сценариев — заставить ИИ искать все многочисленные пробелы в Википедии — потенциально полезные страницы, которые никогда не были написаны — и пытаться создать для них сводные записи, используя информацию из Интернета.

Но Уэльс знает, что вся репутация Википедии основана на восприятии точности, и что в настоящее время это является огромной проблемой для LLM, таких как GPT.

«У него есть тенденция просто создавать вещи из воздуха, что очень плохо для Википедии», — говорит он. «Это просто не нормально. Мы должны быть очень осторожны с этим».

Если LLM начнут создавать центральный репозиторий знаний, такой как Википедия, галлюцинации или ложь, которые не будут обнаружены сразу, начнут расти снежным комом. Люди будут использовать эти не-факты в своих собственных письмах, а последующие ИИ будут обучаться на этих запеченных не-фактах, что затруднит их исправление в долгосрочной перспективе и загонит нас глубже в эту эпоху «пост-правды». /p>

Уэльс также обеспокоен тем, может ли использование LLM для расширения ресурса помочь или усугубить проблемы систематической и бессознательной предвзятости Википедии; ресурс в настоящее время создается и поддерживается добровольцами, подавляющее большинство из которых являются белыми мужчинами, поэтому сайт имеет тенденцию игнорировать темы, которые не представляют интереса для этой группы, и освещать другие темы с определенной точки зрения.

ChatGPT был специально разработан, чтобы попытаться найти сбалансированный взгляд на темы, где это возможно, чтобы попытаться внести некоторые нюансы в области обсуждения, где людям с разных сторон все труднее начинать с какой-либо точки соприкосновения. Но у GPT есть свои собственные проблемы предвзятости, присущие его обучающим данным.

Это сложная тема, и она, безусловно, заставила меня задуматься о том, буду ли я продолжать делать пожертвования сайту, если он пойдет по этому пути. Но на самом деле любая организация, которая не переориентируется на феноменальные возможности LLM следующего поколения, ставит себя в очень невыгодное положение, и безумно ожидать, что эта штука не начнет повсеместно внедряться.

Источник

Нажмите, чтобы оценить статью
[Итого: 0 Среднее значение: 0]

Похожие статьи

Кнопка «Наверх»