Esta herramienta de autoevaluación está diseñada para permitir la mitigación de riesgos éticos asociados al uso/ aplicación de nuevas tecnologías.Lo ponemos a disposición para que el desempeño ético de cada sistema pueda evaluarse desde el principio. Esto es para ayudar al equipo a pensar en los posibles riesgos éticos que pueden surgir a lo largo del proceso de desarrollo.Es importante señalar que las pautas de esta herramienta de autoevaluación son recomendadas en lugar de obligatorias.
El objetivo de este documento es ayudar a los responsables de formular proyectos con IA durante su conceptualización y diseño, así como a liderar posteriormente su ejecución y monitoreo.
Este MOOC aborda los conceptos, principios, desafíos y oportunidades del uso ético y responsable de la inteligencia artificial (IA) para el sector público.