У меня была возможность провести вебинар об ответственном ИИ для аудитории ODSC: Отладка ИИ на предмет ошибок, справедливости и объяснимости. Во-первых, мы рассмотрели текущее состояние машинного обучения, когда инновации в области ИИ появляются с большой скоростью; компании пытаются внедрить ИИ в свои бизнес-процессы и решения; ожидания общества в отношении ИИ растут, и правительства начинают регулировать ИИ.

Затем мы рассмотрели роль, которую Microsoft играет в разработке ответственных принципов ИИ и практических инструментов для сообщества специалистов по данным и организаций, которые могут использовать их в своих жизненных циклах машинного обучения. Мы рассмотрели некоторые из достижений инструментов с открытым исходным кодом, которые исследователи, академики и Microsoft разработали для специалистов по машинному обучению, чтобы лучше понять поведение модели, обнаружить и смягчить нежелательные проблемы, связанные с моделями ИИ.

Наконец, мы глубоко погрузились в компоненты Azure Machine Learning Панель мониторинга ответственного ИИ, которые помогают специалистам по обработке и анализу данных и разработчикам ИИ отлаживать и устранять проблемы с моделями с помощью анализа ошибок, обозревателя данных, оценки достоверности, интерпретируемости модели, контрфактуалов/что-если. и компоненты причинно-следственного анализа. И как этот целостный инструмент помогает специалистам по обработке и анализу данных и командам разработчиков ИИ приступить к работе, интегрируя ответственный анализ ИИ в свою повседневную практику разработки.

Чтобы увидеть другие замечательные вебинары ODSC по запросу или предстоящие мероприятия, посетите: https://app.aiplus.training/courses/Responsible-AI-Debugging-AI-models-for-errors-fairness-and-explainability.