Нейросеть "Лавендер" как логичное развитие тотальной слежки за людьми

Хотя само по себе использование нейросети в отношении тех, кто, если это необходимо с военной точки зрения, честно заслуживает и ковровых бомбардировок, является проявлением акта гуманизма по отношению к ним, к тому же в этой статье очень сильно преувеличено как использование ИИ, так и последствия от использования, бо авторам изначального материала хотелось как можно более выпукло показать «зверства израильской военщины», в данном случае важен сам факт возможности использовать нейросеть в том числе и таким образом:
Хладнокровная машина. Израильская армия использовала искусственный интеллект для обнаружения 37 тысяч целей ХАМАС — The Guardian

Израильская армия использовала базу данных на основе искусственного интеллекта Lavender, которая помогла выявить 37 тысяч потенциальных целей ХАМАС, пишет The Guardian, ссылаясь на источники в разведке, вовлеченные в войну.
nv.ua
Ненуачё, ведь нигде не написано, что ИИ можно использовать только для тоального контроля над людьми:
Или только для ареста неугодных или щемления тех, у кого низкий социальный рейтинг:
В общем, «будущее наступило» и судорожные попытки как-то ограничить на законодательном уровне использование этих технологий вряд ли существенно изменят ситуацию:
Нормативный акт запрещает:
- нецелевой сбор изображений лиц в интернете или из записей камер наблюдения для базы данных распознавания лица;
- распознавание эмоций на рабочем месте и в учебных заведениях;
- нейросети, манипулирующие поведением людей или использующие их уязвимые места;
- применение генеративных моделей правоохранительными органами только для создания профиля человека или оценки его характера.
|
</> |