Estrategia para el Fomento del Desarrollo y Uso Ético y Responsable de la IA en el Ecuador


El 19 de enero de 2026, en Ecuador se expide mediante la publicación del Suplemento No. 206 del Registro Oficial la «Estrategia para el Fomento del Desarrollo y Uso Ético y Responsable de la Inteligencia Artificial en el Ecuador«, cuyo objetivo principal es «Impulsar el desarrollo, adopción y uso ético y responsable de la inteligencia artificial en Ecuador, mediante el fortalecimiento de capacidades humanas y tecnológicas, la promoción de la investigación, desarrollo e innovación, y la incorporación de la IA en sectores públicos y privados, que garantice su implementación transparente, equitativa y centrada en el ser humano, buscando la transformación digital para el crecimiento económico, la generación de empleo de calidad y el bienestar ciudadano

El desarrollo y uso de la IA se regirá por: Privacidad y protección de datos, Equidad y no discriminación, Gobernanza colaborativa, Proporcionalidad, Responsabilidad, Seguridad, Sensibilización y educación, Sostenibilidad (ODS), Supervisión humana, Transparencia y Enfoque basado en riesgos.

Sus principales ejes de acción son:

  • Gobernanza de la IA, que busca establecer un marco que garantice el uso ético, transparente y equitativo de la IA, protegiendo los derechos humanos, la inclusión y la seguridad.
  • Capacidad y tecnología, para fortalecer el talento humano y la infraestructura tecnológica para impulsar la IA.
  • Adopción y desarrollo, para fomentar la aplicación responsable de la IA en sectores priorizados (público y privado) para mejorar la productividad y competitividad.

La estrategia plantea un marco ambicioso, pero deja sin respuesta preguntas críticas:

¿De dónde saldrá el dinero? La estrategia no compromete presupuestos específicos. ¿Cómo se financiarán los $200 millones de inversión en infraestructura, las 10,000 becas, los 100 proyectos de investigación y la plataforma centralizada? ¿Qué incentivos fiscales concretos se ofrecerán al sector privado? ¿Se crearán fondos concursables?

¿Quién es realmente el responsable? Se designa al MINTEL como coordinador, pero ¿tendrá la autoridad real para obligar a otros ministerios (Salud, Educación, Trabajo) a cumplir las metas y modificar sus procesos? ¿Qué pasa si un ministerio no adopta IA o un proyecto falla? ¿Habrá consecuencias?

¿Cómo se medirá y evitará el sesgo algorítmico? Se habla de «equidad», pero ¿cuáles son los estándares técnicos y metodologías obligatorias para auditar los algoritmos utilizados por el Estado (ej. en justicia, otorgamiento de beneficios sociales)? ¿Quién y cómo realizará las «auditorías de IA» mencionadas en el glosario?

¿Qué pasa con los empleos que se destruyan? Se mencionan «campañas de reconversión laboral», pero ¿cuáles son los oficios más en riesgo? ¿Qué programas concretos de recalificación se implementarán? ¿Están presupuestados? La meta de capacitar a 10,000 personas, ¿es suficiente frente a la escala potencial de automatización?

¿Cómo se garantizará la soberanía tecnológica y de datos? Dada la «dependencia tecnológica del exterior» y la colaboración con gigantes como AWS y Google Cloud, ¿qué medidas evitarán que Ecuador se convierta en un mero consumidor de IA extranjera? ¿Se almacenarán los datos sensibles del Estado en servidores nacionales o en la nube de empresas extranjeras?

¿El «sandbox regulatorio» no será una puerta para el dumping regulatorio? Permitir que las empresas prueben productos con «flexibilidad regulatoria» es útil, pero ¿cómo se evitará que se use para evadir normas laborales, de protección al consumidor o ambientales bajo el paraguas de la «innovación»?

¿La participación ciudadana será real o simbólica? El proceso de construcción incluyó mesas de diálogo, pero en la fase de implementación, ¿cómo podrá la ciudadanía común monitorear o cuestionar un sistema de IA que le afecte (ej. un sistema de scoring social, uno de priorización en salud)? Más allá de los «comités de ética», ¿habrá mecanismos de apelación claros para decisiones automatizadas?

Reflexión final:

El éxito de la Estrategia publicada no depende de su diseño, sino de la capacidad para resolver las interrogantes prácticas de implementación: financiamiento, autoridad, accountability y mitigación de riesgos sociales tangibles. Además, el mayor riesgo es que este documento se vuelva solo de buenas intenciones, debido a la falta de mecanismos coercitivos, recursos financieros específicos y respuestas concretas a los dilemas éticos y laborales que la propia IA generará. La brecha entre la visión 2029 y la realidad de una «adopción tardía» es enorme, y cerrarla requerirá decisiones políticas duras y una ejecución coordinada sin precedentes.

— Lilia Quituisaca-Samaniego
📖 Escritora | Directora – Proyecto LeaMoS
🔗 https://liliaquituisacasamaniego.com

.
.
.
#InteligenciaArtificial #IA #AI #ArtificialIntelligence #EticaDigital #EthicalAI #Innovacion #Innovation #TransformacionDigital #DigitalTransformation #Tecnologia #Tech #FuturoDigital #GobiernoDigital #PoliticasPublicas #GobernanzaDigital #AgendaDigital #GobiernoAbierto #DatosAbiertos #ServiciosPublicos #EcuadorDigital #MINTEL #EstrategiaIAEc #IAEcuador #ConectividadEC #PuntosDigitales #EFIAEC #Vision2029 #IAResponsableEc #TalentoDigitalEc #EmpleoTecnologicoEC #EconomiaDigitalEc #StartupsEc #EmprendimientoEc #CienciaDatosEc #DataScience #EducacionDigital #LatamDigital #LatamTech #IAenLatam #EticaEnIA #SesgoAlgoritmico #PrivacidadDigital #ProteccionDeDatos #InclusionDigital #BrechaDigital #Gobernanza #InnovacionPublica #LiderazgoDigital #Ecuador #DesarrolloSostenible #Actualidad #Noticias #Aprende #Conectados #Futuro

Gracias por comentar.

Este sitio utiliza Akismet para reducir el spam. Conoce cómo se procesan los datos de tus comentarios.