В последние годы AI-системы активно внедряются в критически важные области здравоохранения. Однако, как показывает практика, такие модели могут выдавать неверную информацию или демонстрировать предвзятость, что может негативно сказаться на пациентах. Исследователи из MIT и Бостонского университета предлагают ввести маркировку для AI-систем, чтобы пользователи были осведомлены о возможных рисках и ограничениях.
Маркировка должна включать информацию о времени и месте обучения модели, а также о ее предназначении и возможных побочных эффектах. Это поможет избежать автоматизации предвзятости, которая может возникнуть из-за недостатков в данных. Важно, чтобы разработчики понимали необходимость раскрытия информации о своих моделях, что повысит качество и безопасность их применения в клиниках.