Latest courses

La Ética no Debería ser un Añadido sino la Brújula de la Inteligencia Artificial

 

Encabezados
Print Friendly and PDF


La Ética no Debería ser un Añadido sino la Brújula de la Inteligencia Artificial

La inteligencia artificial (IA) ya no es una promesa para el futuro: está modelando decisiones (y sobre todo en el dinero, trabajo, salud y libertad) que afectan a millones hoy. Frente a ese poder, no deberíamos ver a la ética como un lujo académico o como un eslogan publicitario, sino más bien como una exigencia práctica para que la tecnología sirva a las personas y no al revés. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO, en su recomendación sobre la ética de la IA, lo ha dicho con claridad cuando se refiere a que la IA debe desarrollarse y aplicarse respetando los derechos humanos y la dignidad de todas las personas.

Si no hay un marco ético, las desigualdades se reproducen y amplifican. Los algoritmos aprenden de datos históricos y, sin filtros de justicia, replican sesgos sobre género, raza o clase. Eso no es teoría: es efecto documentado en reclutamiento, crédito y vigilancia. Por ello es que los principios de «IA fiable» de la Comisión Europea subrayan la necesidad de transparencia, equidad y rendición de cuentas precisamente porque la ausencia de esos principios produce daño social real.

Si la ética se convierte en la brújula de la ciencia y la tecnología, esta no frenaría la innovación; antes bien, la haría sostenible. Si la ética acompañara a la IA se evitarían ciclos de sobre confianza seguidos de escándalo y rechazo; el conocido hype, que desinfla proyectos y destruye confianza estaría allí presente. Por estas razones es que la propia Unión Europea ha pasado del diagnóstico a la acción normativa con su Ley de Inteligencia Artificial, que clasifica riesgos y prohíbe usos inaceptables; esto en sí no es una camisa de fuerza, antes bien es una hoja de ruta para construir mercados y tecnologías que la sociedad acepte.

La ética es hoy una de las fuerzas más grandes que busca proteger a la democracia en el mundo. La automatización a gran escala y los sistemas de recomendación concentran poder en unas pocas plataformas; sin principios éticos ni controles, la manipulación informativa y la opacidad técnica erosionan el espacio público. En algunos países de Europa, España para citar un ejemplo, el debate público y las iniciativas legislativas recientes subrayan la urgencia de exigir trazabilidad y etiquetado de contenidos generados por IA para preservar la verdad y la responsabilidad pública.

La ventaja de la ética es que es una disciplina práctica y técnica, no solo retórica. Autores contemporáneos nos recuerdan que pensar éticamente sobre la IA obliga a rediseñar sistemas como: métricas de equidad integradas, auditorías independientes, documentación exhaustiva (el famoso datasheet y model card) y equipos multidisciplinares donde la filosofía, la sociología y la ingeniería dialoguen. Como advierte la literatura reciente, la ética sin ingeniería es pura declaración; la ingeniería sin ética es pura potencia sin brújula.

Finalmente, si la pregunta es: ¿quién decide qué es ético?, la respuesta correcta y honesta sería: la sociedad, a través de leyes, instituciones, debate público y estándares, no solo los ingenieros o las empresas. La ética institucionalizada (recomendaciones internacionales, directrices y regulaciones) ofrece un lenguaje compartido que permite medir, comparar y sancionar. No se trata de impedir la IA, sino de orientarla hacia fines humanos legítimos y robustos.

Permítanme ahora ser claro y provocador con esto, pero no incorporar la ética en la IA equivale a delegar nuestra responsabilidad colectiva en cajas negras de silicio. Eso es una forma de abdicar. Sabemos por experiencia que la ética no garantiza resultados fáciles, pero sí garantiza que, cuando los sistemas fallen (y lo harán), podamos entender por qué, atribuir responsabilidades y corregir el rumbo. Rechazar la ética sería elegir la comodidad del beneficio rápido sobre la obligación de proteger a quienes hoy son más vulnerables.

La ética en la IA exige compromiso y siempre lo hará: investigación crítica, marcos regulatorios robustos, transparencia empresarial y ciudadanía informada. Si conseguimos todo eso, la IA podrá ser una herramienta que amplíe capacidades humanas y refuerce derechos; si no lo conseguimos, será todo lo contrario, antes bien será el espejo que amplifique nuestras peores fallas. No dejemos que el espejo decida por nosotros.


Numar González Alvarado

La Ética no Debería rer un Añadido sino la Brújula de la Inteligencia Artificial


Bibliografía 

COECKELBERGH, Mark. (2023). La ética de la inteligencia artificial. Marcial Pons.

DEGLI-ESPOSTI, Sara. (2024). La ética de la inteligencia artificial (Proyecto “Ingeniería de valores en sistemas de IA – VAE”). CIEC / informe divulgativo (PDF).

EL PAÍS. (11 de marzo de 2025). El Gobierno aprueba la norma para el buen uso de la IA, que obliga a etiquetar contenidos creados con esta tecnología. El País.

EUROPEAN COMMISSION. (2019). Ethics guidelines for trustworthy AI (Grupo de expertos de alto nivel sobre IA). Comisión Europea. Documento y guía accesibles en el repositorio de la Comisión.

PARLAMENTO EUROPEO; CONSEJO DE LA UNIÓN EUROPEA. (2024). Reglamento (UE) 2024/1689 — Reglamento sobre inteligencia artificial (DOUE / BOE). 13 de junio de 2024. BOE / Diario Oficial de la Unión Europea.

UNESCO. (2021). Recomendación sobre la ética de la inteligencia artificial. Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura. Documento oficial.


Como citar este artículo: GONZÁLEZ ALVARADO, NUMAR. (2025). La Ética no Debería ser un Añadido sino la Brújula de la Inteligencia Artificial, Época I, Año 3, (CJ17). ISSN ed. electrónica: 2952-4105. https://www.numinisrevista.com/2025/11/la-etica-no-deberia-ser-un-anadido-sino.html

Numinis Logo
UAM Logo
Lulaya Academy Logo

Licencia de Creative Commons

Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional

No hay comentarios:

Publicar un comentario