Session

Interpretabilidad de Modelos de ML utilizando Python e InterpretML

Incluso hoy en día es bastante común encontrarse con clientes o colegas que perciben los modelos de ML como una caja negra capaz de realizar magia para darle al cliente lo que quiere. Sin embargo, la cruda realidad es que sin una comprensión razonable de cómo funcionan los modelos de ML, los proyectos del mundo real rara vez tienen éxito. Teniendo en cuenta que cualquier proyecto de este estilo tiene un componente de negocio muy relevante y que el objetivo final de estos modelos es tomar decisiones automáticas por parte de los usuarios, tienen derecho a hacer preguntas como "¿Cómo puedo confiar en este modelo?" o "¿Cómo se toman las decisiones del modelo?" Responder a estas preguntas puede convertirse en un desafío y es una de las áreas donde se están invirtiendo más esfuerzos hoy en día.

Antonio José Soto Rodriguez

Data & AI Business Unit Director - VerneTech - SolidQ

A Coruña, Spain

Actions

Please note that Sessionize is not responsible for the accuracy or validity of the data provided by speakers. If you suspect this profile to be fake or spam, please let us know.

Jump to top