¿Quién define la ética de la inteligencia artificial?

Por:
- - Visto 170 veces

En estos días, Francia celebra en París el AI Summit, evento clave para discutir la gobernanza y regulación de la inteligencia artificial (IA), reafirmando la urgente necesidad de establecer principios éticos para el desarrollo e implementación de la IA a nivel global. En paralelo, Google confirmó su decisión de eliminar la restricción de uso de la IA para el adelanto tecnológico de armamento, dando una clara muestra de cómo la ética de la IA está siendo definida por intereses corporativos y geopolíticos más que por principios universales.

Queda claro que pese a esfuerzos internacionales por regular la IA, las potencias tecnológicas siguen priorizando sus propios intereses. Estados Unidos, China y la Unión Europea tienen enfoques divergentes: China refuerza el control estatal, EE.UU. fomenta la innovación con mínimas restricciones, mientras que la UE intenta establecer regulaciones basadas en niveles de riesgo. Entonces ¿Quién define la ética de la inteligencia artificial?

Las Big Tech tienen el poder político y económico para imponer sus propias reglas y adaptar sus modelos de negocio a modo, para que desarrolladores independientes y países en vías de desarrollo no puedan participar activamente en el ecosistema de la IA. Lejos de democratizar el acceso a esta tecnología, se consolida aún más la centralización del poder tecnológico en una especie de oligopolio disfrazado de regulación, donde los principios de equidad, no discriminación e igualdad de género quedan exentos de mecanismos de implementación vinculantes, y las recomendaciones de transparencia, ética y respeto a los derechos humanos puedan ser simplemente ignoradas.


Reitero, además, lo escrito en mi columna anterior (Código abierto: el caballo de Troya del siglo XXI): el supuesto “código abierto” sigue siendo utilizado para justificar el acceso a la IA como una narrativa engañosa de las grandes tecnológicas. Estas compañías atraen a desarrolladores y gobiernos a sus plataformas bajo licencias aparentemente gratuitas, cuando en la práctica la infraestructura de procesamiento y almacenamiento de datos sigue siendo monopolizada por líderes tecnológicos con la capacidad de establecer sus propios principios éticos, y definir quiénes pueden participar realmente en el ecosistema de la IA. Y no solo eso, sino que también determinan cómo se transformará el mercado laboral, desplazando a personas y rezagando a países enteros en la nueva economía digital.

La reconfiguración del mercado laboral ya exige el aprendizaje de nuevas habilidades y un acceso equitativo a la formación en tecnologías emergentes.  El Banco Interamericano de Desarrollo estimó en 2024 que aproximadamente 980 millones de empleos a nivel global se verían afectados por la IA, lo que representaría el 28% de la fuerza laboral mundial. Según el informe The Future of Jobs Report 2025 del Foro Económico Mundial, 85 millones de empleos podrían ser sustituidos este año, pero al mismo tiempo se generarán 97 millones de nuevas oportunidades laborales en sectores emergentes.

Una IA ética solo será posible con la colaboración de gobiernos, academia y sociedad civil. Para ello, se necesitan organismos de supervisión independientes con facultades reales de auditoría y regulación. Asimismo, es fundamental crear mecanismos de protección de derechos digitales que aseguren que las personas puedan impugnar decisiones algorítmicas que los afecten negativamente.

Finalmente, la integración de todos los países en la definición de estándares globales de IA permitiría globalizar la educación sobre ética en IA, asegurando que tanto tomadores de decisiones como desarrolladores sean conscientes de las implicaciones de sus sistemas desde el modelaje. Sin esta base ética y regulatoria real, la inteligencia artificial seguirá evolucionando bajo los intereses de unos pocos, en lugar de beneficiar a toda la humanidad.

La IA, como cualquier otro desarrollo cibernético, no es un fenómeno pasajero que deba quedar en manos de unos pocos. La transformación que trae a la economía, la salud, la educación, la socialización, la política y toda nuestra vida cotidiana exige un debate abierto y democrático, donde todos participemos activamente en la reflexión sobre el papel que jugamos como sociedad en la construcción de nuestro propio futuro.

¿Permitiremos que la IA se siga desarrollando bajo los intereses de pocos, o haremos lo necesario para asegurar un desarrollo tecnológico justo y transparente?

Acerca de Ingrid Motta

Ingrid tiene un doctorado en comunicaciones con mención honorífica, una licenciatura en comunicaciones, así como una maestría en publicidad y un diplomado en marketing especializado. Cuenta con certificación en Massachusetts Institute of Technology Professional Education el curso: Applied Data Science Program: Leveraging AI for Effective Decision-Making Profesional con más de 30 años de experiencia en gestión publicitaria, relaciones públicas, comunicación estratégica online y offline, gestión de crisis, comunicación interna y asuntos públicos y corporativos. Ha trabajado con éxito en

Deja tu Comentario

A fin de garantizar un intercambio de opiniones respetuoso e interesante, DiarioJudio.com se reserva el derecho a eliminar todos aquellos comentarios que puedan ser considerados difamatorios, vejatorios, insultantes, injuriantes o contrarios a las leyes a estas condiciones. Los comentarios no reflejan la opinión de DiarioJudio.com, sino la de los internautas, y son ellos los únicos responsables de las opiniones vertidas. No se admitirán comentarios con contenido racista, sexista, homófobo, discriminatorio por identidad de género o que insulten a las personas por su nacionalidad, sexo, religión, edad o cualquier tipo de discapacidad física o mental.


El tamaño máximo de subida de archivos: 300 MB. Puedes subir: imagen, audio, vídeo, documento, hoja de cálculo, interactivo, texto, archivo, código, otra. Los enlaces a YouTube, Facebook, Twitter y otros servicios insertados en el texto del comentario se incrustarán automáticamente. Suelta el archivo aquí

Artículos Relacionados: