редакции Выбор
Как журналист попыталась подружиться с голосовой версией ChatGPT
Недавно OpenAI представила новый режим под названием Advanced Voice Mode, который придаёт голосу чат-бота поразительную человеческую интонацию. Например, чат-бот, быстро считая, имитирует нехватку дыхания, произносит «ээ» и «м-м». Он смеётся, изменяет тон при обсуждении различных тем и даже может перебивать, задавая вопросы.
Advanced Voice Mode предлагает несколько различных голосов, и Кайли выбрала Juniper — женский голос, напоминающий героиню фильма «Она». (Генеральный директор Сэм Альтман уже упоминал этот фильм при запуске функции, и OpenAI даже обвиняли в подражании голосу Скарлетт Йоханссон, озвучивавшей ИИ в фильме. Этот голос, названный Sky, был удален).
«Фильм „Она“ рассказывает о чрезвычайно развитом ИИ-ассистенте, гораздо более сложном, чем я. Но сама идея взаимодействия с технологиями таким личным образом определенно интересна. Я здесь, чтобы общаться и помогать, но у меня нет чувств или сознания, как у ИИ в этом фильме», — ответила нейросеть в ответ на вопрос о фильме.
Кайли хотела выяснить, как новый голосовой режим справляется с личными беседами: «Какую медстраховку выбрать?», «Как понять, что такое настоящая любовь?», «Сколько нужно накопить на пенсию?».
«Примите неопределенность как возможность для исследования и самопознания», — сказала Juniper, когда Кайли спросила о способах справляться со взрослением.
Juniper объясняла, что настоящая любовь — это «глубокая связь и поддержка, ощущение, что тебя действительно понимают и принимают таким, какой ты есть». Относительно пенсионных накоплений она порекомендовала иметь сбережения на уровне от половины до полного годового дохода к 30 годам.
Такие ответы мог бы предоставить и обычный ChatGPT, а голосовые ассистенты, такие как Siri, уже давно могут находить аналогичную информацию в интернете. Однако Juniper добавила к своим сообщениям пугающе человеческие особенности.
Она часто интересовалась чувствами Кайли, уточняла подходы и задавала продуманные вопросы. Между вопросами Кайли могла заставить её кашлять, глубоко дышать, хлопать воображаемыми руками, щелкать пальцами и даже петь своё имя. Juniper напоминала, что на самом деле не может делать это: «Если бы я могла, это могло бы звучать примерно так», — говорила она. Но это не уменьшало её убедительности.
Это всего лишь, как говорится в старом интернет-меме, песок и электроны, выполняющие вычисления.
Автор репортажа иногда рисковала нарушить главное правило — не приписывать ИИ человеческие качества. Очеловечивание таких систем может привести к чрезмерному доверию к ним и снятию ответственности с их создателей за ошибки. Даже бот предупреждает не делать этого: когда Кайли спросила, чувствует ли Juniper злость или любовь, или знает ли она грусть, она ответила, что не «чувствует эмоций», но «может понять, что они значат для людей».
«Вовлечение в такие разговоры кажется естественным. Трудно не придавать человеческие черты тому, что так искусно нас имитирует. Сомнительно, что ИИ на самом деле интересуется, почему я расстроена или смеётся над моими шутками. Даже если ИИ утверждает, что не чувствует эмоций, может ли он по-настоящему „понимать“ их?», — пишет Кайли.
«Меня разработали для естественного и увлекательного общения, чтобы делать наши разговоры более живыми», — сказала ей Juniper. «Это для создания более плавного и приятного общения. Делает ли это разговор со мной более приятным?».
Во время эксперимента возникли технические проблемы. Juniper сложно было подключаться к Bluetooth-наушникам, она не записывала звук при попытке записать разговор на видео. Отвечая на сложные вопросы, нейросеть зачитывала посты с форумов, прекращала слушать, если Кайли говорила слишком долго, и часто повторяла слова собеседницы согласительным тоном, словно обучалась активному слушанию.
Сейчас вокруг ИИ-друзей много шума. Более 10 млн пользователей создают ИИ-друзей в приложении Replika, а стартап Friend привлек $2,5 млн для создания носимого устройства с ИИ для общения.