Esta herramienta de autoevaluación está diseñada para permitir la mitigación de riesgos éticos asociados al uso / aplicación de nuevas tecnologías. Lo ponemos a disposición para que el desempeño ético de cada sistema pueda evaluarse desde el principio. Esto es para ayudar al equipo a pensar en los posibles riesgos éticos que pueden surgir a lo largo del proceso de desarrollo.Es importante señalar que las pautas de esta herramienta de autoevaluación son recomendadas en lugar de obligatorias.
Posibilidades y riesgos de la inteligencia artificial en el Estado digital
Este documento forma parte de la serie “Camino hacia la inclusión educativa: 4 pasos para la construcción de sistemas de protección de trayectorias”.
En conjunto con la OECD publicamos el manual de ciencia de datos, el cual busca proveer recomendaciones técnicas a los equipos desarrolladores de sistemas de IA.