APPERCASE
vasb@nccrepnfr.eh +7 499 302-34-17

Новости

#предвзятость

Элон Маск представил Grokipedia — альтернативу Википедии, созданную на основе его чат-бота Grok. Несмотря на критику, этот инструмент может оказаться полезным для AI.
Доктор Нассар Мохамед подал в суд на компании Alphabet и Waymo, утверждая, что их ИИ ошибочно идентифицировал его как террориста, что привело к отказу в доступе к услугам. Он требует компенсации и изменения алгоритмов проверки идентификации.
На заседании комитета по искусственному интеллекту в Ирландии обсуждались опасения, что AI-системы могут усугубить предвзятости в отношении людей с ограниченными возможностями, особенно в контексте использования AI-аватаров.
Исследование Университета штата Мичиган показывает, что искусственный интеллект имеет ограничения в выявлении обмана. AI продемонстрировал предвзятость к лжи, с точностью 85.8% для лжи и 19.5% для правды.
Искусственный интеллект меняет подходы к найму, однако его использование в этой сфере связано с юридическими рисками. Важно понимать, как соблюдение законодательства может защитить работодателей от возможных последствий.
В новом исследовании рассматриваются риски и правовые вызовы, связанные с использованием больших языковых моделей (LLM), которые становятся важными посредниками в коммуникации и могут влиять на общественное мнение и принятие решений.
Илон Маск анонсировал запуск бета-версии Grokipedia — альтернативы Википедии, которая, по его мнению, устранит политические и идеологические предвзятости. Однако эксперты предупреждают, что новая платформа может столкнуться с аналогичными проблемами.
Согласно новым рекомендациям, работодатели должны быть осторожны при использовании искусственного интеллекта (ИИ) в процессе найма, чтобы избежать предвзятости и нарушения законов о дискриминации.
Исследования показывают, что около половины американцев считают, что искусственный интеллект негативно повлияет на качество новостей в ближайшие 20 лет. Важно критически относиться к контенту, созданному ИИ, чтобы избежать предвзятости и дезинформации.
Искусственный интеллект (ИИ) может значительно улучшить доступность и персонализацию психического здоровья, однако существует риск усиления предвзятости в системах ИИ. Новый подход предлагает интеграцию справедливого машинного обучения и совместного создания для снижения этих рисков.
Искусственный интеллект (ИИ) активно внедряется в разработку лекарств, однако скрытые предвзятости и непрозрачные модели угрожают доверию и прозрачности. Исследования показывают, как объяснимый ИИ может преобразовать непрозрачные прогнозы в ясные и подотчетные выводы.
Исследование показало, что инструменты ИИ для учителей могут генерировать более строгие рекомендации для студентов с афроамериканскими именами по сравнению с их сверстниками с белыми именами.
Написать нам