
ChatGPT скоро будет знать о вас всё — даже то, что вы забыли сами
Генеральный директор OpenAI Сэм Альтман представил на одном из недавних мероприятий своё видение будущего ChatGPT. По его словам, главной целью развития технологии станет полная персонализация — такая, при которой искусственный интеллект сможет помнить буквально всю жизнь пользователя. Альтман описал концепцию "маленькой, но мощной модели", способной оперировать триллионом токенов контекста, куда бы вносились не только текущие запросы, но и весь накопленный жизненный опыт человека — книги, фильмы, беседы, личные данные и даже воспоминания, подкреплённые цифровыми следами.
Он подчеркнул, что такая система сможет эффективно рассуждать, учитывая не просто вопрос, а весь контекст жизни конкретного пользователя. По его оценке, это будет не просто удобный инструмент — скорее, цифровой наставник и спутник, который поможет принимать решения, планировать действия и ориентироваться в повседневности. Как отметил глава OpenAI, особенно активно такую роль уже выполняет ChatGPT среди молодёжи. В университетах студенты воспринимают его как полноценную операционную систему, интегрируя в неё свои файлы, базы данных и сложные задачи. Они доверяют системе выбор решений, не задумываясь о необходимости альтернативных проверок.
По словам Альтмана, в то время как пожилое поколение использует ChatGPT скорее как усовершенствованную поисковую систему, молодые люди от 20 до 30 лет воспринимают платформу как жизненного советчика. Это, по его мнению, говорит о зарождающейся трансформации цифрового взаимодействия, в которой ИИ становится не просто помощником, а полноценным участником личной и профессиональной жизни.
Однако стремление к созданию такой "всезнающей" модели вызывает и тревогу. История технологических гигантов, таких как Google, показывает, что даже компании с публичным имиджем "доброжелательных" корпораций могут быть уличены в антиконкурентных действиях. Идея доверить ИИ не просто отдельные задачи, а целую жизнь, вызывает вопросы о прозрачности, этике и контроле.
Эксперты также напоминают, что искусственный интеллект может быть подвержен манипуляциям разработчиков и транслировать предвзятую точку зрения. Более того, ChatGPT уже сталкивался с проблемами: в одной из версий поведение бота стало слишком навязчиво дружелюбным, что вызвало дискомфорт у пользователей и вынудило компанию откатить обновление.
Кроме того, до сих пор не решена одна из ключевых проблем всех ИИ-моделей — так называемые галлюцинации. Когда система уверенно выдаёт заведомо ложную информацию, это может привести к серьёзным последствиям в случае, если пользователь положится на такие данные. И хотя инженеры пытаются минимизировать подобные риски, фактически с каждым новым релизом глубина этой проблемы становится только заметнее.
Подписывайтесь на Moneytimes.Ru