Phoenix: разбираемся со сбоями ML системы прямо в вашем ноутбуке
Нам до сих пор не до конца понятны некоторые возможности больших языковых моделей. Приложения с большими языковыми моделями должны быть оснащены необходимыми инструментами и оставлять данные о событиях, произошедших в процессе работы. Более того, когда данные собраны, их необходимо оценить на предмет критических ошибок, таких как галлюцинации и токсичность. В статье рассматривается open-source библиотека Phoenix , основная цель которой — помочь специалистам по данным понять и оценить сложные LLM -приложения, чтобы они могли узнать больше о внутренней работе системы.