ИИ в 2025 году превзойдет человеческие способности
Илон Маск выразил мнение, что человечество подошло к пределу в использовании данных для обучения моделей искусственного интеллекта (ИИ). Он отметил, что в 2024 году в мире закончились данные, созданные человеком, и теперь для дальнейшего развития ИИ необходимо использовать синтетические данные, которые ИИ генерирует сам. Маск предположил, что к концу 2025 года ИИ-технологии могут превзойти человеческие способности, а к 2030 году вероятность того, что ИИ станет умнее всех людей, составляет 100%.
Маск отметил, что синтетические данные уже активно используют такие компании, как Microsoft и Google, и они представляют собой ключ к решению проблемы нехватки данных для обучения нейронных сетей. Это решение позволит ИИ пройти этап самообучения, генерируя контент, на котором можно тренировать новые модели. В частности, ИИ-стартап Writer сообщил, что использование синтетических данных может существенно снизить затраты на разработку ИИ-моделей. Например, модель Palmyra X 004 обошлась всего в $700 тыс., тогда как аналогичная модель от OpenAI стоила $4,6 млн.
Однако в вопросе синтетических данных существует и опасность: использование таких материалов может привести к созданию ИИ, который будет предвзятым или ограниченным, поскольку эти данные часто основаны на уже существующих источниках. По данным аналитиков Gartner, на сегодняшний день 60% данных, которые используются для обучения нейросетей, были специально сгенерированы.
Эксперты также прогнозируют, что в ближайшие годы могут возникнуть проблемы с нехваткой качественных текстовых и визуальных данных для обучения ИИ. Согласно отчету Стэнфордского университета, дефицит текстовых данных ожидается в период с 2026 по 2032 год, в то время как нехватка визуальных данных для ИИ-моделей может возникнуть в 2038-2046 годах.
Кроме того, исследование, опубликованное в журнале Nature, предупреждает о рисках, связанных с обучением ИИ на непроверенных данных. Ученые обнаружили, что даже минимальное количество фейковой информации в обучающих материалах может существенно снизить точность ответов ИИ. Например, при уровне дезинформации всего 0,001% модели начинают давать ошибки в 7% случаев. Это подчеркивает важность использования проверенных данных для обучения ИИ, чтобы избежать манипуляций и распространения ложной информации.
С уважением, ООО "Компания "База Электроники"
Вернуться на главную