Не секрет, что многие, чтобы облегчить себе работу, обращаются к новомодному инструменту ИИ с запросом на подготовку, например, десятистраничного брифа на заданную тему. Но мы уже предупреждали Вас о том, что следует максимально осторожно применять результаты, которые нейросеть выдает по Вашему запросу.
Развитие и внедрение возможностей искусственного интеллекта (ИИ) в практическую деятельность человека идет семимильными шагами. Новости агентств используются для обучения генеративных моделей ИИ (при этом не все рады этому факту и, например, здание New York Times запретило использовать свой новостной контент для обучения нейросетей), автоматизированные инструменты применяют для быстрого составления финансовых отчетов, «улучшения» и «персонализации» своего контента и многих других функций.
Но установление стандартов и понятных правил игры в этой сфере также неизбежно. Еще в прошлом году несколько медиаагентств подписали открытое письмо с призывом обеспечить прозрачность данных для обучения генеративных моделей искусственного интеллекта. Организации указали, что инструменты ИИ разрушают их бизнес-модели, наполняют интернет дезинформацией и нарушают законы об авторском праве.
Например, возможность читать нейросетевые выжимки длинных текстов, когда искусственный интеллект сокращает большой текст до формата коротких тезисов. Но широкое распространение такого нейросетевого пересказа может негативно сказаться не только на доходах медиа от баннерной рекламы. Ведь несмотря на то, что выжимка получается качественная, ряд важных нюансов из текста все же теряется и длинные содержательные тексты упрощаются. Учащиеся, стремящиеся нагнать таким образом программу летнего чтения, не получат того богатства смыслов, информации и речевых оборотов, за которые и ценится классическая литература.
В Китае были введены в действие временные меры по регулированию ИИ-сервисов. Согласно которым генерируемый контент должен воплощать основные социалистические ценности, не ставить под угрозу национальную безопасность, не содержать пропаганду терроризма и насилия, порнографию, ложную и вредоносную информацию. А китайские фирмы должны получать лицензию, чтобы использовать ИИ и гарантировать безопасность. Например, организации могут обязать присваивать категорию риска каждому варианту использования ИИ (распознавание лиц и эмоций в рабочих помещениях, торговых залах) и анализировать, как искусственный интеллект может повлиять на потребителей и сотрудников.
Крупнейшие работодатели США (Walmart, Delta Air Lines, T-Mobile, Chevron, Starbucks) и ряд европейских брендов (такие как Nestle и AstraZeneca) уже пользуются возможностью отслеживания разговоров среди сотрудников компании, сообщает CNBC.
Несомненно, возможности ИИ по выявлению в коллективах буллинга, троллинга, прочих проявлений преследования и дискриминации велики и неоспоримы. Есть также возможность в реальном времени отслеживать риски не только нарушения требований безопасности и производственных инструкций, но и проявлений терроризма и проч.
Но опять встает вопрос регулирования и этических норм. Ведь даже камеры видеонаблюдения работодатель может ставить не везде. Суд указал, что видеонаблюдение на рабочих местах и в производственных помещениях должно быть связано исключительно с исполнением работником должностных обязанностей, и по своей сути должно повышать эффективность производства, способствовать контролю и учету рабочего времени работников, повышению производительности труда. При этом работодатель обязан известить своих сотрудников, что их снимают, и показать, где находятся зоны видимости камер. При этом камеры видеонаблюдения, расположенные в зоне отдыха, нарушают права работников на неприкосновенность частной жизни.
04.11.2024
02.11.2024
31.10.2024