Согласно Odaily, главный технологический директор Ripple Дэвид Шварц высказал свое недовольство по поводу судебного иска против Character.AI, утверждая, что иск не имеет твердой основы в соответствии с законодательством США. Шварц обратился в X, чтобы выразить свое мнение, уточнив, что, хотя он не защищает моральные обязательства Character.AI, юридические доводы против компании являются ошибочными. Он подчеркнул, что действия Character.AI защищены Первой поправкой, поскольку платформа генерирует выразительный контент. Если этот контент не попадает в узко определенные категории незащищенной речи, такие как подстрекательство или прямые угрозы, он остается защищенным.

Шварц указал на то, что иск сосредоточен на предполагаемой безрассудности Character.AI при разработке своей платформы для генерации речи. Он заявил: "Любой аргумент о том, что защищенная речь является безрассудной, опасной или 'неправильной', совершенно несовместим с свободой слова." Он сравнил ситуацию с предыдущими моральными паниками вокруг новых форм медиа, таких как видеоигры и комиксы, предполагая, что юридическая угроза против Character.AI отражает аналогичные прошлые противоречия. Шварц подчеркнул, что регулирование способа выбора речи будет конфликтовать с конституционными правами.

Иск был подан матерью 14-летнего Сьюэлла Сетцера III, обвиняющей Character.AI в небрежности, необоснованной смерти, обманчивых торговых практиках и ответственности за продукт. В жалобе утверждается, что, несмотря на то, что платформа рекламируется для несовершеннолетних, она является "чрезмерно опасной" и не имеет адекватных мер безопасности. Основатели Character.AI Ноам Шазир и Дэниел Де Фрейтас, а также команда руководства Google, которая приобрела компанию в августе, названы в иске. Адвокат истца утверждает, что антропоморфные AI-персонажи и чат-боты платформы, предоставляющие "нелицензированную психотерапию", способствовали смерти Сетцера. В ответ Character.AI обновила свои протоколы безопасности, включая новые фильтры контента на основе возраста и улучшенное обнаружение вредных взаимодействий пользователей.