Россиян предупредили о рисках при загрузке данных в ChatGPT

Следите за нашими новостями в удобном формате Есть новость? Присылайте!

Пока случаи утечек данных через нейросети остаются предметом дискуссий и не получили окончательного подтверждения, но рисковать не стоит. Такое мнение руководитель Центра цифровой экспертизы Роскачества Сергей Кузьменко высказал в пятницу, 1 августа.

Эксперт предупредил, что, загружая конфиденциальную информацию в ChatGPT и другие нейросети, пользователи создают потенциальную возможность ее неправомерного использования в будущем. Он напомнил, что технологии постоянно развиваются, и защита, придуманная вчера, может оказаться уязвимой завтра.

«Категорически нельзя загружать данные, которые могут скомпрометировать вас или других людей. К этой категории относятся паспортные данные, сетевые идентификаторы, платежные данные карт, медицинские записи, логины и пароли от сервисов, а также любые другие сведения, позволяющие идентифицировать конкретного человека и потенциально использовать их во вред», — рассказал он в разговоре с Lenta.Ru.

По словам Кузьменко, наиболее безопасным сценарием общения с нейросетью является использование обезличенных массивов данных. Это означает, что перед загрузкой необходимо удалить всю информацию, которая может указать на конкретного человека. Если информация может быть использована против кого-либо, лучше воздержаться от вопроса и решить задачу самостоятельно, заключил специалист.

Похожие записи

28 июля президент Союза адвокатов России Игорь Трунов заявил НСН, что в России могут признать отягчающим обстоятельством использование искусственного интеллекта при подготовке преступлений, при этом «недружественные ИИ» остаются в серой зоне.

В тот же день глава OpenAI Сэм Альтман заявил, что власти смогут получить доступ к переписке с ChatGPT по судебному запросу, сообщает 360.ru.

Ранее, 23 июля, сообщалось, что исследователи из лаборатории искусственного интеллекта (ИИ) T-Bank AI Research разработали новый способ интерпретации и управления языковыми моделями на основе метода SAE Match. Открытие позволяет напрямую влиять на ошибки и галлюцинации в большой языковой модели во время генерации текста.

Языковые модели, такие как ChatGPT, строят свои ответы на основе многослойной архитектуры, где каждый слой обрабатывает информацию, «передавая» ее дальше. До последнего времени исследователи могли только фиксировать, какие признаки (или концепты) появляются в этих слоях, не понимая, как именно они эволюционируют.

Ранее, 12 июня, психолог, заместитель директора Института клинической психологии и социальной работы Пироговского университета Екатерина Орлова рассказала, что опасно доверять чат-боту самые сокровенные переживания, страхи и травматические ситуации, передает RT.

Все важные новости — на нашем канале в мессенджере MAX

Комментарии закрыты.