

La inteligencia artificial (IA) ya no es una promesa para el futuro: está modelando decisiones (y sobre todo en el dinero, trabajo, salud y libertad) que afectan a millones hoy. Frente a ese poder, no deberíamos ver a la ética como un lujo académico o como un eslogan publicitario, sino más bien como una exigencia práctica para que la tecnología sirva a las personas y no al revés. La Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura, UNESCO, en su recomendación sobre la ética de la IA, lo ha dicho con claridad cuando se refiere a que la IA debe desarrollarse y aplicarse respetando los derechos humanos y la dignidad de todas las personas.
Si
no hay un marco ético, las desigualdades se reproducen y amplifican. Los
algoritmos aprenden de datos históricos y, sin filtros de justicia, replican
sesgos sobre género, raza o clase. Eso no es teoría: es efecto documentado en
reclutamiento, crédito y vigilancia. Por ello es que los principios de «IA
fiable» de la Comisión Europea subrayan la necesidad de transparencia, equidad
y rendición de cuentas precisamente porque la ausencia de esos principios
produce daño social real.
Si
la ética se convierte en la brújula de la ciencia y la tecnología, esta no
frenaría la innovación; antes bien, la haría sostenible. Si la ética acompañara
a la IA se evitarían ciclos de sobre confianza seguidos de escándalo y rechazo;
el conocido hype, que desinfla proyectos y destruye confianza estaría allí
presente. Por estas razones es que la propia Unión Europea ha pasado del diagnóstico
a la acción normativa con su Ley de Inteligencia Artificial, que clasifica
riesgos y prohíbe usos inaceptables; esto en sí no es una camisa de fuerza, antes
bien es una hoja de ruta para construir mercados y tecnologías que la sociedad
acepte.
La
ética es hoy una de las fuerzas más grandes que busca proteger a la democracia
en el mundo. La automatización a gran escala y los sistemas de recomendación
concentran poder en unas pocas plataformas; sin principios éticos ni controles,
la manipulación informativa y la opacidad técnica erosionan el espacio público.
En algunos países de Europa, España para citar un ejemplo, el debate público y
las iniciativas legislativas recientes subrayan la urgencia de exigir
trazabilidad y etiquetado de contenidos generados por IA para preservar la
verdad y la responsabilidad pública.
La
ventaja de la ética es que es una disciplina práctica y técnica, no solo
retórica. Autores contemporáneos nos recuerdan que pensar éticamente sobre la
IA obliga a rediseñar sistemas como: métricas de equidad integradas, auditorías
independientes, documentación exhaustiva (el famoso datasheet y model card) y
equipos multidisciplinares donde la filosofía, la sociología y la ingeniería
dialoguen. Como advierte la literatura reciente, la ética sin ingeniería es
pura declaración; la ingeniería sin ética es pura potencia sin brújula.
Finalmente,
si la pregunta es: ¿quién decide qué es ético?, la respuesta correcta y honesta
sería: la sociedad, a través de leyes, instituciones, debate público y
estándares, no solo los ingenieros o las empresas. La ética institucionalizada (recomendaciones
internacionales, directrices y regulaciones) ofrece un lenguaje compartido que
permite medir, comparar y sancionar. No se trata de impedir la IA, sino de
orientarla hacia fines humanos legítimos y robustos.
Permítanme
ahora ser claro y provocador con esto, pero no incorporar la ética en la IA
equivale a delegar nuestra responsabilidad colectiva en cajas negras de
silicio. Eso es una forma de abdicar. Sabemos por experiencia que la ética no
garantiza resultados fáciles, pero sí garantiza que, cuando los sistemas fallen
(y lo harán), podamos entender por qué, atribuir responsabilidades y corregir
el rumbo. Rechazar la ética sería elegir la comodidad del beneficio rápido
sobre la obligación de proteger a quienes hoy son más vulnerables.
La
ética en la IA exige compromiso y siempre lo hará: investigación crítica, marcos
regulatorios robustos, transparencia empresarial y ciudadanía informada. Si
conseguimos todo eso, la IA podrá ser una herramienta que amplíe capacidades
humanas y refuerce derechos; si no lo conseguimos, será todo lo contrario,
antes bien será el espejo que amplifique nuestras peores fallas. No dejemos que
el espejo decida por nosotros.
Numar González Alvarado
La Ética no Debería rer un Añadido sino la Brújula de la Inteligencia Artificial
Bibliografía
COECKELBERGH,
Mark. (2023). La ética de la inteligencia artificial. Marcial Pons.
DEGLI-ESPOSTI,
Sara. (2024). La ética de la inteligencia artificial (Proyecto “Ingeniería de
valores en sistemas de IA – VAE”). CIEC / informe divulgativo (PDF).
EL PAÍS. (11
de marzo de 2025). El Gobierno aprueba la norma para el buen uso de la IA, que
obliga a etiquetar contenidos creados con esta tecnología. El País.
EUROPEAN
COMMISSION. (2019). Ethics guidelines for trustworthy AI (Grupo de expertos de
alto nivel sobre IA). Comisión Europea. Documento y guía accesibles en el
repositorio de la Comisión.
PARLAMENTO
EUROPEO; CONSEJO DE LA UNIÓN EUROPEA. (2024). Reglamento (UE) 2024/1689 —
Reglamento sobre inteligencia artificial (DOUE / BOE). 13 de junio de 2024. BOE
/ Diario Oficial de la Unión Europea.
UNESCO.
(2021). Recomendación sobre la ética de la inteligencia artificial.
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura.
Documento oficial.
Como citar
este artículo: GONZÁLEZ ALVARADO, NUMAR. (2025). La Ética no Debería
ser un Añadido sino la Brújula de la Inteligencia Artificial, Época I, Año 3,
(CJ17). ISSN ed. electrónica: 2952-4105. https://www.numinisrevista.com/2025/11/la-etica-no-deberia-ser-un-anadido-sino.html




Esta revista está bajo una licencia de Creative Commons Reconocimiento-NoComercial-CompartirIgual 4.0 Internacional























.png)

No hay comentarios:
Publicar un comentario