Artículo
de Revisión
Gobernanza y desafíos éticos en la adopción empresarial
de la inteligencia artificial
Governance and ethical challenges in the business adoption of
the artificial intelligence
Darwin
Daniel Ordoñez Iturralde 1,a , Christian
Xavier Proaño Piedra 1,b
1
Universidad Laica Vicente Rocafuerte de Guayaquil, Guayaquil, Ecuador.
a
Doctor en Educación.
b
Magíster Universitario en Administración y Gestión Avanzada de Proyectos.
RESUMEN
Este
trabajo explora cómo la inteligencia artificial (IA) impacta en la gestión
empresarial a nivel internacional, examinando la equidad, gobernanza y desafíos
éticos que acarrea su adopción. Así mismo, se destaca cómo la fragmentación
regulatoria entre diferentes regiones, como la Unión Europea, Estados Unidos y
China, dificulta la creación de modelos coherentes de gobernanza y aumenta la
incertidumbre en las operaciones. Además, se abordan dilemas éticos como los
sesgos algorítmicos y la tensión entre la privacidad de los usuarios y la
personalización de los servicios. Se examinan estrategias de empresas líderes,
como la realización de auditorías algorítmicas y el establecimiento de
políticas de transparencia, que buscan fomentar la confianza del público y
mejorar la reputación corporativa. No obstante, obstáculos como la falta de
talento especializado y la resistencia interna de las organizaciones dificultan
la adopción de prácticas éticas sostenibles. Finalmente, este análisis sugiere
que las empresas que inviertan en marcos de gobernanza adaptativos y colaboren
con gobiernos y actores privados estarán mejor preparadas para enfrentar los
desafíos cambiantes de la IA y competir en el mercado global.
Palabras
clave:
inteligencia artificial; ética; gobierno; cooperación internacional; cambio
tecnológico.
ABSTRACT
This
work explores how artificial intelligence (AI) impacts business management to
international level, examining equity, governance and ethical challenges that
govern and ethical challenges that carry its adoption. It also highlights how
regulatory fragmentation between different regions, such as the European Union,
the United States and China, makes it difficult to create coherent models of
governance and increases uncertainty in the operations. In addition, ethical
dilemmas such as algorithmic biases and the tension between the privacy of the
users and the personalization of the services. It examines strategies of
leading companies, such as conducting algorithmic audits and establishing
transparency policies, that seek to build public trust and enhance corporate
reputation. However, obstacles such as lack of specialized talent and internal
organizational resistance hinder the adoption of sustainable ethical practices.
Finally, this analysis suggests that companies that invest in adaptive
governance frameworks and collaborate with governments and private actors will
be better prepared to meet the evolving challenges of AI and compete in the
global marketplace.
Keywords: artificial intelligence:
ethical; government; international cooperation; technological change.
Recibido:
24/06/24
Aprobado:
18/08/24
Publicado:
28/08/24
Citar como: Ordoñez Iturralde, D.,
y Proaño Piedra, C. (2024). Gobernanza y desafíos éticos en la adopción
empresarial de la inteligencia artificial. Innovación Empresarial, 4(2), e633. https://doi.org/10.37711/rcie.2024.4.2.633
INTRODUCCIÓN
La
rápida evolución de la inteligencia artificial (IA) transforma las prácticas
empresariales mediante la automatización de decisiones y la mejora en la toma
de decisiones y los procesos internos (Rana et al., 2022). Pero al mismo tiempo
plantea varios desafíos éticos y regulatorios, que incluyen, entre otros, la
necesidad de transparencia, protección de la privacidad y responsabilidad
algorítmica, la cual es especialmente relevante para las empresas internacionales
que deben cambiar constantemente y adaptarse para cumplir con unos marcos
legales en rápido desarrollo (Floridi y Cowls, 2019).
Desde
2016, numerosas organizaciones han manifestado su compromiso con los principios
de una inteligencia artificial responsable, priorizando valores como la
transparencia y la seguridad. Esto se ha reflejado en iniciativas como la
Partnership on AI (de Laat, 2021), que promueve la colaboración en este ámbito.
Al mismo tiempo, algunas empresas han apostado por desarrollar herramientas de
código abierto. Además, de Laat (2021) señaló que cerca de diez compañías,
tanto en Europa como en los Estados Unidos, han abogado por una regulación
gubernamental específica para aplicaciones consideradas de alto riesgo. Su
objetivo es encontrar un equilibrio entre la autorregulación del sector y la
implementación de prohibiciones estrictas que podrían frenar el desarrollo de
ciertas tecnologías.
La
IA tiene el potencial de hacer que una empresa sea más eficiente y más
competente; sin embargo, muchas organizaciones todavía no están listas para
hacerle frente a las crecientes exigencias de una IA responsable (Binns, 2018).
Esto debido a la falta de un regulador de mercado estable y la imposibilidad de
integrar normas éticas globales (Jobin et al., 2019). En consecuencia, esto
obliga a las empresas multinacionales a enfrentarse al desafío de la innovación
rápida (Dignum, 2019).
Esta
revisión analiza el panorama regulatorio emergente relacionado con la IA y su
impacto con la gestión empresarial internacional, explora estrategias de
adaptación, identifica tendencias y desafíos en el ámbito del cumplimiento de
normas y brinda una perspectiva crítica de la integración de la ética en el
proceso de toma de decisiones empresariales.
MÉTODOS
Para
llevar a cabo este estudio se realizó una búsqueda sistemática de artículos
científicos en las bases de datos ScienceDirect, Springer Link y Emerald
Insight, seleccionadas por su relevancia en los ámbitos académico y
empresarial. La búsqueda se limitó a publicaciones del período 2019-2023, para
asegurar que los hallazgos fueran actuales y reflejaran las tendencias más
recientes. Siguiendo los principios de Booth et al. (2016), la estrategia de
búsqueda empleó operadores booleanos con las palabras clave: “artificial
intelligence”, “business ethics”, “international regulation”, “responsible AI” y
“algorithmic risks.” La ecuación booleana
aplicada fue: “artificial intelligence” AND (“business ethics” OR
“responsible AI”) AND (“international regulation” OR “algorithmic risks”).
Para
asegurar la accesibilidad de las fuentes se aplicaron filtros que restringieron
los resultados a artículos revisados por pares y de acceso abierto. El enfoque
se centró en estudios que examinaran la aplicación ética de la inteligencia
artificial en empresas internacionales, incluyendo investigaciones empíricas y
marcos normativos en regiones clave como la Unión Europea y Estados Unidos.
Inicialmente, la búsqueda recuperó 381 artículos en las tres bases de datos: ScienceDirect (6), Springer Link (223) y Emerald Insight (152). Posteriormente, se realizó una segunda búsqueda en Google Scholar para identificar artículos adicionales que correspondieran a las mismas bases de datos iniciales. Este paso permitió incorporar 25 estudios adicionales, elevando el total de artículos identificados a 404 (ver Tabla 1).
Los
artículos se sometieron a criterios específicos de inclusión y exclusión para
garantizar la relevancia y calidad de los estudios. Los criterios de inclusión
abarcaban estudios de acceso abierto y revisados por pares, que se basaban en
la ética de la IA en el ámbito empresarial, mientras que los criterios de
exclusión abarcaban estudios no prácticos e investigaciones no realizadas de
2019 a 2023.
Tras
la aplicación de estos criterios fueron seleccionados 38 artículos relevantes,
distribuidos según se muestra en la Tabla 2.
DESARROLLO Y DISCUSIÓN
En este apartado se presentan los estudios encontrados en la revisión de la literatura, clasificados en tres áreas temáticas: regulación internacional emergente en IA, dilemas éticos y sesgos algorítmicos en empresas internacionales, y estrategias empresariales para la adopción de AI responsable (ver Tabla 3).
Regulación internacional emergente en inteligencia
artificial
A medida
que la regulación de la IA avanza, las diferencias regionales plantean desafíos
para las multinacionales. Por ejemplo, en la Unión Europea (UE), el AI Act
establece un marco regulatorio basado en el riesgo que supervisa las
aplicaciones de IA que afectan la seguridad y los derechos fundamentales
(European Commission, 2021). Este enfoque, abordado por autores como
Díaz-Rodríguez et al. (2023) y Bahcecik (2023), se apoya en tres pilares: la
legalidad, la ética y la solidez para aumentar la supervisión humana, la
transparencia y la rendición de cuentas por la discriminación algorítmica
(Veale y Zuiderveen, 2021); aunque un marco tan estricto podría limitar la
innovación de las empresas europeas en comparación con empresas de regiones con
regulaciones más flexibles (Espinoza, 2024; Roberts et al., 2021).
Estados
Unidos y China permiten mayor innovación, a pesar de sus gastos en seguridad y
responsabilidad algorítmica (Erdélyi y Goldsmith, 2022). Estados Unidos opta
por la autorregulación, emitiendo guías en el sector que enfatizan la seguridad
de los algoritmos (NIST, 2024). Así mismo, la Declaración de Derechos de la IA
(AI Bill of Rights) de 2023 establece cinco principios no violentos para
garantizar que los sistemas automatizados traten a las personas civilmente y
otorguen equidad (Park, 2023). Sin embargo, este enfoque flexible conduce a
riesgos de segregación algorítmica y desigualdad en la protección del
consumidor (Fjeld et al., 2020).
La
regulación estratégica de la IA en China, que se realizó con la participación
del control estatal, ha demostrado tener un impacto en la innovación en la
esfera de la atención médica y las herramientas de vigilancia (Ding, 2018). El
país también lidera la innovación global en IA a través del Plan de Desarrollo
de la IA de la Próxima Generación (New Generation Artificial Intelligence
Development Plan, AIDP) que combina incentivos económicos con supervisión
estatal (Roberts et al., 2021; Roberts et al., 2023). Este enfoque permite la
experimentación estratégica con tecnología; sin embargo, tiene limitaciones en
términos de transparencia y gobernanza ética, lo que según Mozur et al. (2019)
confiere a China una ventaja competitiva dada la recopilación de datos a gran
escala y la implementación de regulaciones adaptables. Finalmente, China
apalancó empresas privadas y políticas internas para proyectar su poder global para
desafiar el dominio estadounidense y promover un orden global multipolar
(Simbar y Moghadam, 2022).
La
diversidad de enfoques regulatorios en estas regiones es un obstáculo para las
empresas, que deben adaptar sus operaciones a las cambiantes normativas
locales. Esta fragmentación, explicada por Verheij (2020) y Jobin et al.
(2019), aumenta los costos operativos y crea incertidumbre, dificultando la
integración de estándares éticos y responsabilidad en diferentes
jurisdicciones. Como observaron Verheij (2020) y Papagiannidis et al. (2022),
es importante desarrollar estructuras de gobernanza interna adaptadas a un
entorno fragmentado y cambiante.
El
sector sanitario aporta oportunidades a través de la aplicación de técnicas de
AI que transforman el flujo de trabajo y la relación médico-paciente, aunque
enfrentan retos de privacidad y transparencia, según señalan autores como
Mennella et al. (2024) y Díaz-Rodríguez et al. (2023). Por su parte, la
regulación europea garantiza la seguridad de los pacientes y la privacidad de
los datos. Una regulación flexible promueve la innovación y aborda los riesgos
algorítmicos y de privacidad (Mennella et al., 2024). Taeihagh (2021) también
resalta que la gobernanza adaptativa es necesaria para abordar los riesgos de
la IA e involucrar a los actores no estatales en la toma de decisiones.
En
línea con las estrategias nacionales de digitalización Lappi et al. (2019)
enfatizan la relevancia de la gestión de cartera en la gobernanza multinivel de
proyectos de tecnología de la información (TI) en Finlandia. Mientras que
Gauthier y Brender (2021) recomiendan desarrollar nuevos estándares de
auditoría de TI para seguir la evolución de las nuevas tecnologías,
especialmente blockchain, para aprovechar la gestión de riesgos en la
digitalización de la economía. Por otro lado, Ryan y Stahl (2021) tratan sobre
cómo las conductas éticas en IA pueden enseñar a los desarrolladores conductas
que sugieren, como el uso de patrones de diseño para cumplir con las
regulaciones; tal es el caso del Reglamento General de Protección de Datos de
la Unión Europea.
Birkstedt
et al. (2023) abordan la implementación de la IA en el nivel organizativo,
enfocado en alinear los valores tecnológicos y éticos, y sugieren una agenda de
investigación. El marco legal de los requisitos del sistema de IA se mejorará a
través de patrones de diseño y principios éticos, para ayudar a desarrolladores
y expertos legalmente calificados a idear soluciones de cumplimiento (Dickhaut
et al., 2022). La IA también debe adoptar principios éticos para minimizar los
riesgos sociales y garantizar la implementación ética, como discuten Pflanzer
et al. (2023).
Equilibrar
la tecnología y la integración de personas y relaciones es esencial para una gestión
eficaz de la inteligencia artificial (Salo-Pöntinen y Saariluoma, 2022).
Incluso si no existe una cultura global uniforme, las empresas que se
encuentren en ella podrán aislarse y descuidar sus negocios (Floridi, 2021).
Por lo tanto, una gestión central debe respaldarse para promover la innovación
y garantizar la ética y la responsabilidad, en línea con la propuesta de
Papagiannidis et al. (2022) y la perspectiva adaptativa de Taeihagh (2021).
Dilemas éticos y sesgos algorítmicos en empresas
internacionales
El uso
de la IA puede generar sesgos y prejuicios raciales y sociales debido a los
datos recopilados por los algoritmos de aprendizaje, que pueden diferir de las
prácticas actuales (Binns, 2018; Chen, 2023; Noble, 2018; Zajko, 2022). Esto es
particularmente preocupante en el caso de la contratación, donde los algoritmos
proporcionarían modelos de discriminación existentes y no marcarían una mejora (Cowgill
et al., 2020; Drage y Mackereth, 2022; Howard y Borenstein, 2018). Los
algoritmos, a menudo vistos como cajas negras, pueden obstaculizar el
rendimiento de las cuentas debido a la falta de una lógica interna integral en
muchas empresas, lo que limita su responsabilidad efectiva a la hora de mitigar
estos problemas (Barocas et al., 2023; Selbst et al., 2019; Gerards, 2022).
Personalizar
el servicio y proteger la propiedad del usuario es otro gran problema. Las
empresas que operan en todo el mundo recurren a grandes cantidades de datos
para personalizar la experiencia del usuario, lo que genera preocupación sobre
el uso indebido de los datos personales (Haleem et al., 2022; Masur y Trepte,
2021). Si bien estas prácticas de personalización pueden mejorar las
interacciones con los clientes, también exponen a las empresas a posibles
violaciones de la privacidad y a la desconfianza pública, como se vio en el
caso de Cambridge Analytica, donde se utilizó información personal sin
autorización para influir en la política y el poder judicial (Cupać y
Sienknecht, 2024; Isaak y Hanna, 2018). Estos casos resaltan la importancia de
desarrollar modelos de gestión algorítmica para controlar el uso de datos
personales y proteger la privacidad de los usuarios (Floridi y Cowls, 2019;
Raji et al., 2020).
La
principal limitación para construir una IA justa surge de la falta de
estándares internacionales, lo que dificulta asignar y asumir responsabilidades
en el mercado global y ralentiza la implementación de auditorías y monitoreo
externo (Cihon et al., 2020). Esta falta de cooperación ha llevado a muchas
empresas a evitar examinar los sistemas de IA por temor a que los sesgos puedan
dañar su reputación o llevar a mantener el control, reduciendo así los
incentivos para utilizar sistemas de control y limitando la acción a una
inteligencia más transparente y justa (Calmon Santos de Souza y Silva de Souza,
2023; Erdélyi y Goldsmith, 2022; Whittaker et al., 2018). Sin embargo, las
diferencias en la tecnología de control de las decisiones dificultan la
aplicación constante de estas prácticas en todo el mundo (Cihon et al., 2020).
En
este contexto, la gobernanza algorítmica requiere la colaboración entre
gobiernos, empresas y sociedad civil, para identificar soluciones éticas que
garanticen la transparencia y la rendición de cuentas en la adopción de
procesos de IA (Jobin et al., 2019; Saheb y Saheb, 2024; Walter, 2024). Por
ello, algunos expertos sostienen que el análisis independiente debería ser
obligatorio, especialmente en áreas importantes donde la IA puede tener un
impacto en la justicia y las relaciones, como las finanzas, la salud y los
negocios (Raji et al., 2020; Selbst et al., 2019).
Las
investigaciones muestran que la ética y la responsabilidad social de la IA
pueden, en algunos casos, utilizarse para servir a los intereses
gubernamentales en lugar de apoyar prácticas comerciales reales. Por ejemplo,
en Rusia, las grandes empresas utilizan la responsabilidad social empresarial
(RSE) como herramienta política para legitimar el poder estatal sobre las
grandes corporaciones, lo cual plantea interrogantes sobre la
instrumentalización de la ética en entornos autoritarios (Zueva y Fairbrass,
2021). Además, en un contexto global, se debe adoptar una perspectiva multidisciplinar
para implementar una IA sensible a la realidad local, además de adaptada a la
cultura y la política de cada mercado. Las soluciones basadas en algoritmos
deben tener en cuenta las diferencias culturales y contextuales para evitar la
imposición de valores occidentales en economías emergentes y asegurar que la IA
responda tanto a los derechos fundamentales como a los valores propios de cada
contexto (Ding, 2018; Floridi, 2021; Van Veldhoven y Vanthienen, 2021).
La
transparencia, la justicia y la privacidad son herramientas importantes para
resolver cuestiones éticas y promover el uso responsable de la IA en el entorno
global (Frank et al., 2023; Mucha et al., 2023; Ryan y Stahl, 2021; Schinagl y
Shahim, 2020). A largo plazo, la IA ética requiere un enfoque que combine
habilidades técnicas, de gestión y sociales, para permitir a las empresas
operar de manera más sostenible y eficaz en los mercados internacionales
(Verheij, 2020; Vesnic-Alujevic et al., 2020).
Estrategias empresariales para la adopción de IA
responsable
Para
adaptarse al crecimiento del liderazgo y la gestión, muchas empresas han
adoptado estrategias de gestión que permiten el uso de IA. Estas incluyen
comités de ética, revisiones algorítmicas e informes transparentes para
gestionar el desempeño, la gobernanza y el riesgo social (Metcalf et al.,
2019). La implementación responsable de la IA requiere incorporar estándares de
aplicación en todas las fases del ciclo de vida del desarrollo tecnológico,
desde el diseño hasta la evaluación continua (Brock y Wangenheim, 2019). En el
marketing digital, Haleem et al. (2022) hablan sobre el papel cambiante de la
IA en la personalización y mejora de la experiencia del cliente, viendo a la IA
como la clave para esa toma de decisiones en tiempo real. Esto sugiere que las
empresas deben considerar el impacto de la IA en los clientes, así como el
control interno y la ética como marco. Por su parte, Kalkan (2024) destaca las
cuestiones éticas relacionadas con la privacidad y el sesgo algorítmico, en línea
con De Laat (2021), que enfatiza la importancia del derecho del gobierno a
lograr un equilibrio entre innovación y seguridad en aplicaciones de alto
riesgo. Este enfoque enfatiza la necesidad de demostrar ética y prácticas
éticas, lo que es consistente con las recomendaciones de Gardner et al. (2022)
acerca de que las agencias de financiación deben incluir prácticas confiables
de IA en el proceso de solicitud de subvenciones, incentivando un diseño ético
desde las primeras etapas de los proyectos.
Luk
(2024) amplía este análisis en el contexto de la IA generativa, destacando que
los desafíos regulatorios actuales recuerdan los conflictos de propiedad
intelectual surgidos con Internet. En este contexto, el estudio de Cupać y
Sienknecht (2024) muestra que la IA puede suponer un peligro para los derechos
personales y el control administrativo. La UE ha desarrollado herramientas
regulatorias para reducir estos riesgos, como prohibiciones, transparencia,
gestión de riesgos y educación digital. Sin embargo, daños como la polarización
son difíciles de controlar. Esta perspectiva se complementa con la de Koskinen
et al. (2023), quienes proponen un modelo ético para la gobernanza de
ecosistemas de datos, por lo que sugieren que la transparencia y el consenso ético
entre actores pueden mitigar daños en sectores interconectados y socialmente
sensibles.
Grandes
empresas tecnológicas, como Microsoft y Amazon han avanzado hacia la adopción
de una IA responsable mediante auditorías algorítmicas y políticas de transparencia
orientadas a los consumidores (Morley et al., 2020). Sin embargo, Morley et al.
(2020) identifican una brecha entre los principios éticos y su implementación
práctica, sugiriendo que se necesita una tipología de herramientas para guiar a
los desarrolladores de IA en una práctica ética aplicada a todo el ciclo de
vida de los algoritmos. Esto resuena con Ayling y Chapman (2022), quienes
enfatizan que las herramientas éticas de la IA existentes, como las
evaluaciones de impacto y auditorías, a menudo se limitan a la autoevaluacion,
pero carecen de verificación externa, lo que es una deficiencia que debilita su
eficacia.
En
sectores altamente regulados, como el financiero, el equilibrio entre
privacidad de usuarios y procesamiento de datos masivos añade complejidad a la
adopción de principios éticos en IA (Mennella et al., 2024; Rahwan, 2018). Por
su parte, Hilb (2020) propuso cinco escenarios de gobernanza de IA en juntas
directivas, con diferentes niveles de participación de la IA, desde el servicio
hasta la autopoiesis, y enfatizó la necesidad de que los líderes empresariales
comprendan y orienten la aplicación de la IA para revolver estas cuestiones
éticas y legales. En este contexto, Taeihagh (2021) y Beulen et al. (2022)
abogan por marcos de gobernanza híbridos y adaptativos, combinando regulaciones
públicas con autorregulación privada, que resalten la importancia de contratos
formales y acuerdos relacionales en la gobernanza de IA para promover la
colaboración y confianza entre las partes. Además, Rasool et al. (2023)
encontraron que la logística inversa promueve la digitalización y la
colaboración interorganizacional, lo que facilita la ventaja competitiva a
través del intercambio de conocimientos y mejora de la cooperación entre
actores en el contexto alemán.
Con
todo, la escasez de talento especializado en ética y gobernanza algorítmica
sigue siendo una barrera para implementar políticas efectivas (Obermeyer et
al., 2019). Además, algunas empresas se han resistido al cambio debido a los
costos operativos y culturales que implica la transición hacia modelos
transparentes (Shneiderman, 2022). La cuestión de la capacidad organizativa ha
sido abordada por Akter et al. (2022), quienes sugieren que la concienciación
sobre ciberseguridad —a nivel personal, de gestión y de infraestructura— puede
ser una capacidad dinámica dentro de las empresas, que también fomenta la
resiliencia ante riesgos éticos y regulatorios.
Las
asociaciones comerciales también juegan un papel clave en la transformación
digital de sus miembros, especialmente en sectores con jugadores pequeños donde
lideran proyectos de digitalización que promueven la colaboración (Van
Veldhoven y Vanthienen, 2023); una dinámica que se alinea con los acuerdos
relacionales discutidos en la gobernanza de IA (Beulen et al., 2022). La
participación de las asociaciones comerciales en este proceso es importante
para la transformación de las empresas que operan en mercados interconectados y
orientados hacia la digitalización.
Finalmente,
aquellas empresas que invierten en marcos sólidos de gobernanza y colaboran con
gobiernos y el ámbito académico estarán mejor preparadas para enfrentar los
retos emergentes frente a la IA, como destacan Andrade y Gonçalo (2021) en su propuesta
de capacidades dinámicas para la transformación digital en países BRICS. Kalkan
(2024) menciona por su parte que la integración de gobernanza proactiva no solo
mitiga riesgos, sino que también mejora la competitividad global, mientras que
Luk (2024) subraya que la gobernanza debe anticiparse a los riesgos
tecnológicos para evitar que los avances erosionen derechos fundamentales, tal
como ocurrió en ciclos anteriores de disrupción tecnológica.
El
trabajo presentó limitaciones debido de la naturaleza cambiante del campo
regulatorio en IA, lo que implica la probabilidad de publicación de normativas
posteriores al cierre de la revisión y que las estrategias comerciales varían
entre sectores y regiones.
Conclusiones
Este
estudio ha mostrado que la adopción de la IA por parte de las empresas multinacionales
implica encontrar un equilibrio delicado entre innovación, ética y cumplimiento
normativo. Si bien la IA ofrece grandes oportunidades para optimizar procesos y
aumentar la competitividad, su integración de manera responsable enfrenta
desafíos importantes, como la fragmentación regulatoria, la falta de talento
especializado y la resistencia interna al cambio. Más aún, la ausencia de
estándares internacionales claros complica la creación de modelos de gobernanza
uniformes, lo que obliga a las empresas a ajustar sus operaciones a los
diferentes contextos locales. Sin embargo, aquellas organizaciones que
desarrollen marcos de gobernanza sólidos y colaboren tanto con actores públicos
como privados estarán mejor preparadas para enfrentar los riesgos y aprovechar
al máximo los beneficios de la IA. En última instancia, lograr una convergencia
entre ética, regulación y tecnología será esencial para consolidar la confianza
del público y asegurar que la IA contribuya de forma sostenible al desarrollo
global.
Declaración de uso de la IA
Las
ideas, argumentos, conceptos, diseño, investigación e interpretación de los
estudios incluidos en este trabajo es una creación original de los autores. Se
utilizó ChatGPT para acelerar el proceso de escritura del manuscrito, corregir
errores ortotipográficos y para traducir al inglés el título y el resumen. Los
autores revisaron la versión final para asegurar su coherencia y exactitud.
REFERENCIAS
Akter, S., Uddin, M. R., Sajib, S., Lee, W. J. T., Michael,
K., & Hossain, M. A. (2022). Reconceptualizing cybersecurity awareness
capability in the data-driven digital economy. Annals of Operations Research.
https://doi.org/10.1007/s10479-022-04816-9
Andrade, C., y Gonçalo, C. (2021). Transformación digital
habilitando capacidades estratégicas en el contexto de los “BRICS”. Revista de
Gestão, 28(4), 297-315. https://doi.org/10.1108/REGE-12-2020-0154
Ayling, J., & Chapman, A. (2022). Putting AI ethics to
work: are the tools fit for purpose? AI and Ethics, 2,
405-429. https://doi.org/10.1007/s43681-021-00084-x
Bahcecik, S. O. (2023). I TRENDS Security Politics and
Arti- ficial Intelligence: Key Trends and Debates. International Political
Science Abstracts, 73(3), 329-338. https://doi.org/10.1177/00208345231182638
Barocas, S., Hardt, M., & Narayanan, A. (2023).
Fairness and machine learning: Limitations and opportunities. MIT Press.
Beulen, E., Plugge, A., & van Hillegersberg, J. (2022).
Formal and relational governance of artificial intelligence outsourcing.
Information Systems and e-Business Management, 20, 719–748. https://doi.org/10.1007/s10257-022-00560-4
Binns, R. (2018). Fairness in machine learning: Lessons
from political philosophy. Proceedings of the 2018 Conference on Fairness,
Accountability, and Transparency, 149-159. https://doi.org/10.48550/arXiv.1712.03586
Birkstedt, T., Minkkinen, M., Tandon, A., y Mäntymäki, M.
(2023). Gobernanza de IA: temas, lagunas de conocimiento y futuras agendas.
Internet Research, 33(7), 133-167. https://doi.org/10.1108/INTR-01-2022-0042
Booth, A., Sutton, A., & Papaioannou, D. (2016).
Systematic Approaches to a Successful Literature Review (2nd ed.). SAGE
Publications.
Brock, J. M., & Wangenheim, F. (2019, Summer).
Demystifying AI: What digital transformation leaders can teach you about
realistic artificial intelligence. Business Horizons, 62(6), 751-758. https://tinyurl.com/ycyjadnr
Calmon Santos de Souza, M., & Silva de Souza, R.
(2023). Law enforcement, social demands and reputation risks as drivers of
compliance functions: A comparative analysis of the largest banks’ disclosures
in the UK and Brazil. Crime, Law and Social Change, 81(4), 255-280. https://doi.org/10.1007/s10611-023-10116-8
Chen, Z. (2023). Ethics and discrimination in artificial
intelligence-enabled recruitment practices. Humanities and Social Sciences
Communications, 10(1), 567. https://doi.org/10.1057/s41599-023-02044-8
Cihon, P., Maas, M. M., & Kemp, L. (2020, November).
Fragmentation and the future: Investigating architectures for international AI
governance. Global Policy, 11(5), 545-556. https://doi.org/10.1111/1758-5899.12890
Cowgill, B., Dell’Acqua, F., & Matz, S. (2020. May).
The Managerial Effects of Algorithmic Fairness Activism. AEA Papers and
Proceedings, 110, 85-90. https://tinyurl.com/3txk3cxw
Cupać, J., & Sienknecht, M. (2024). Regulate
against the machine: How the EU mitigates AI harm to democracy.
Democratization, 31(5), 1067-1090. https://doi.org/10.1080/13510347.2024.2353706
De Laat, P. (2021). Companies committed to responsible AI: From principles towards implementation and regulation?
Philosophy y Technology, 34, 1135-1193. https://doi.org/10.1007/s13347-021-00474-3
Díaz-Rodríguez, N., Del Ser, J., Coeckelbergh, M., López de
Prado, M., Herrera-Viedma, E., & Herrera, F. (2023, November). Connecting
the dots in trustworthy Artificial Intelligence: From AI principles, ethics,
and key requirements to responsible AI systems and regulation. Information
Fusion, 99, 101896. https://doi.org/10.1016/j.inffus.2023.101896
Dickhaut, E., Li, M. M., Janson, A., & Leimeister, J.
M. (2022). The role of design patterns in the development and legal assessment
of lawful technologies. Electronic Markets, 32, 2311-2331. https://doi.org/10.1007/s12525-022-00500-9
Ding, J. (2018, marzo). Deciphering China’s AI dream: The
context, components, capabilities, and consequences of China’s strategy to lead
the world in IA. Future of Humanity Institute, University of Oxford.
https://tinyurl.com/32emxrsd
Dignum, V. (2019). Responsible artificial intelligence: How
to develop and use AI in a responsible way. Springer. https://doi.org/10.1007/978-3-030-30371-6
Drage, E., & Mackereth, K. (2022). Does AI debias
recruitment? Race, gender, and AI’s “eradication of difference.” Philosophy y
Technology, 35(89). https://doi.org/10.1007/s13347-022-00591-w
Erdélyi, O. J., & Goldsmith, J. (2022). Regulating
artificial inte- lligence: Proposal for a global solution. Government Information
Quarterly, 39(4), 101748. https://doi.org/10.1016/j.giq.2022.101748
Espinoza, J. (2024, 15 de julio). Europe’s rushed attempt
to set the rules for AI. Financial Times. https://tinyurl.com/2p99jjs2
European Commission. (2021). Proposal for a regulation
laying down harmonised rules on artificial intelligence (Artificial
Intelligence Act). https://tinyurl.com/343v7hsa
European Union. (2016, 27 de abril). Regulation (EU)
2016/679. On the protection of natural persons with regard to the processing of
personal data and on the free movement of such data, and repealing Directive
95/46/EC (General Data Protection Regulation). EUR-Lex.
https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=uriserv:OJ.L_.2016.119.01.0001.01.ENGytoc=OJ:L:2016:119:FULL#d1e1384-1-1
Fjeld, J., Achten, N., Hilligoss, H., Nagy, A., &
Srikumar, M. (2020). Principled artificial intelligence: Mapping consensus in
ethical and rights-based approaches to principles for AI. Berkman Klein Center
Research Publication. https://doi.org/10.2139/ssrn.3518482
Floridi, L. (2021). Ethics, governance, and policies in
artificial intelligence: A road to maturity. Springer Verlag.
Frank, D.-A., Jacobsen, L.F., Søndergaard, H.A., &
Otterbring, T. (2023). In companies we trust: Consumer adoption of artificial
intelligence services and the role of trust in companies and AI autonomy.
Information Technology y People, 36(8), 155-173.
https://doi.org/10.1108/ITP-09-2022-0721
Floridi, L., & Cowls, J. (2019). A unified framework of
five principles for AI in society. Harvard Data Science Review, 1(1).
https://doi.org/10.1162/99608f92.8cd550d1
Gardner, A., Smith, A. L., Steventon, A., Coughlan, E.,
& Oldfield, M. (2022). Ethical funding for trustworthy AI: proposals to
address the responsibilities of funders to ensure that projects adhere to
trustworthy AI practice. AI and Ethics, 2, 277-291. https://doi.org/10.1007/s43681-021-00069-w
Gauthier, M. P., & Brender, N. (2021). ¿Cómo se ajustan
los estándares de auditoría actuales al uso emergente de blockchain? Managerial
Auditing Journal, 36(3), 365-385. https://doi.org/10.1108/MAJ-12-2019-2513
Gerards, J. (2022). The fundamental rights challenges of
algorithms. Netherlands Quarterly of Human Rights, 37(3), 205-209. https://doi.org/10.1177/0924051919861773
Haleem, A., Javaid, M., Qadri, M. A., Singh, R. P., &
Suman, R. (2022). Artificial intelligence (AI) applications for marketing: A
literaturebased study. International Journal of Intelligent Networks, 3,
119-132. https://doi.org/10.1016/j.ijin.2022.08.005
Hilb, M. (2020). Toward artificial governance? The role of
artificial intelligence in shaping the future of corporate governance. Journal
of Management and Governance, 24, 851-870.
https://doi.org/10.1007/s10997-020-09516-7
Howard, A., & Borenstein, J. (2018). The ugly truth
about ourselves and our robot creations: The problem of bias and social inequity.
Science and Engineering Ethics, 24(5), 1521-1536.
https://doi.org/10.1007/s11948-017-9975-2
Isaak, J., & Hanna, M. J. (2018). User data privacy:
Facebook, Cambridge Analytica, and privacy protection. Computer, 51(8), 56-59. https://doi.org/10.1109/MC.2018.3191268
Jobin, A., Ienca, M., & Vayena, E. (2019). The global
landscape of AI ethics guidelines. Nature Machine Intelligence, 1(9), 389-399.
https://doi.org/10.1038/s42256-019-0088-2
Kalkan, G. (2024). The Impact of Artificial Intelligence on
Corporate Governance. Journal of Corporate Finance Research /
Корпоративные
Финансы, 18(2), 17-25. https://doi.org/10.17323/j.jcfr.2073-0438.18.2.2024.17-25
Koskinen, J., Knaapi-Junnila, S., Helin, A., Rantanen,
M.M., & Hyrynsalmi, S. (2023). Ethical governance model for the data
economy ecosystems. Digital Policy, Regulation and Governance, 25(3), 221-235.
https://doi.org/10.1108/DPRG-01-2022-0005
Luk, A. (2024). The relationship between law and
technology: comparing legal responses to creators’ rights under copyright law
through safe harbour for online intermediaries and generative AI technology.
Law, Innovation and Technology, 16(1), 148-169. https://doi.org/10.1080/17579961.2024.23.13800
Lappi, T. M., Aaltonen, K., & Kujala, J. (2019).
Project governance and portfolio management in government digitalization.
Transforming Government: People, Process and Policy, 13(2), 159-196. https://doi.org/10.1108/TG-11-2018-0068
Masur, P. K., & Trepte, S. (2021). Transformative or
not? How privacy violation experiences influence online privacy concerns and
online information disclosure. Human Communication Research, 47(1), 49–74. https://doi.org/10.1093/hcr/hqaa012Mennella,
C., Maniscalco, U., De Pietro, G., & Esposito, M. (2024). Ethical and
regulatory challenges of AI technologies in healthcare: A narrative review.
Heliyon, 10(4), e26297. https://doi.org/10.1016/j.heliyon.2024.e26297
Metcalf, J., Moss, E., & Boyd, D. (2019). Owning
ethics: Corporate logics, Silicon Valley, and the institutionalization of
ethics. Social Research: An International Quarterly, 82(2), 449-476.
https://muse.jhu.edu/article/732185
Mozur, P., Kessel, J. M., & Chan, M. (2019). Made in
China, exported to the world: The surveillance state. The New York Times.
https://tinyurl.com/2dxtv5c8
Morley, J., Floridi, L., Kinsey, L., & Elhalal, A.
(2020). From what to how: An initial review of publicly available AI ethics
tools, methods, and research to translate principles into practices. Science
and Engineering Ethics, 26, 2141-2168. https://doi.org/10.1007/s11948-019-00165-5
Mucha, T., Ma, S., & Abhari, K. (2023). Riding a
bicycle while building its wheels: The process of machine learning-based
capability development and IT-business alignment practices. Internet Research,
33(7), 168-205. https://doi.org/10.1108/INTR-10-2022-0769
National Institute of Standards and Technology (NIST).
(2024). Artificial intelligence risk management framework: Generative
artificial intelligence profile (NIST AI 600-1). U.S. Department of Commerce.
https://doi.org/10.6028/NIST.AI.600-1
Noble, S. U. (2018). Algorithms of oppression: How search
engines reinforce racism. NYU Press. https://tinyurl.com/56ex47f5
Obermeyer, Z., Powers, B., Vogeli, C., & Mullainathan,
S. (2019). Dissecting racial bias in an algorithm used to manage the health of
populations. Science, 366(6464), 447-453. https://doi.org/10.1126/science.aax2342
Park, E. (2023). The AI Bill of Rights: A step in the right
direction. Orange County Lawyer Magazine, 65(2), 25. https://ssrn.com/abstract=4351423
Pflanzer, M., Dubljević, V., Bauer, W. A., Orcutt, D.,
List, G., & Singh, M. P. (2023). Embedding AI in society: ethics, policy,
governance, and impacts. AI y Society, 38, 1267-1271. https://doi.org/10.1007/s00146-023-01704-2
Papagiannidis, E., Enholm, I. M., Dremel, C., Mikalef, P.,
& Krogstie, J. (2022). Toward AI Governance: Identifying Best Practices
and Potential Barriers and Outcomes. Information Systems Frontiers, 25,
123-141. https://doi.org/10.1007/s10796-022-10210-1
Rahwan, I. (2018). Society-in-the-loop: Programming the
algorithmic social contract. Ethics and Information Technology, 20, 5-14. https://doi.org/10.1007/s10676-017-9430-8
Raji, I. D., Smart, A., White, R. N., Mitchell, M., Gebru,
T., Hutchinson, B., Smith-Loud, J., Theron, D., & Barnes, P. (2020).
Closing the AI accountability gap: Defining an end-to-end framework for
internal algorithmic auditing. In FAT ‘20: Proceedings of the 2020 Conference
on Fairness, Accountability, and Transparency (pp. 33-44). Association for
Computing Machinery. https://doi.org/10.1145/3351095.3372873
Rana, G., Khang, A., Sharma, R., Kumar, A. l., & Kumar,
A. S. (2022). Reinventing Manufacturing and Business Processes Through
Artificial Intelligence. CRC Press.
Rasool, F., Greco, M., Morales-Alonso, G., & Carrasco-Gallego, R. (2023). What is next? The effect of reverse
logistics adop- tion on digitalization and inter-organizational collaboration.
International Journal of Physical Distribution y Logistics Management, 53(5/6),
563-588. https://doi.org/10.1108/ IJPDLM-06-2022-0173
Roberts, H., Cowls, J., Hine, E., Morley, J., Wang, V.,
Taddeo, M., & Floridi, L. (2023). Governing artificial intelligence in
China and the European Union: Comparing aims and promoting ethical outcomes.
The Information Society, 39(2), 79-97. https://doi.org/10.1080/01972243.2022.2124565
Roberts, H., Cowls, J., Morley, J., Taddeo, M., Wang, V.,
& Floridi, L. (2021). The Chinese approach to artificial intelligence: An
analysis of policy, ethics, and regulation. AI y Society, 36(1), 59-77. https://doi.org/10.1007/s00146-020-00992-2
Ryan, M., & Stahl, B. C. (2021). Artificial
intelligence ethics guidelines for developers and users: clarifying their
content and normative implications. Journal of Information, Communication and
Ethics in Society, 19(1), 61-86. https://doi.org/10.1108/JICES-12-2019-0138
Saheb, T., & Saheb, T. (2024). Mapping Ethical
Artificial Intelligence Policy Landscape: A Mixed Method Analysis. Science and
engineering ethics, 30(2), 9. https://doi.org/10.1007/s11948-024-00472-6
Salo-Pöntinen, H., & Saariluoma, P. (2022). Reflections
on the human role in AI policy formulations: how do national
AI strategies view people? Discov Artificial Intelligence, 2(3).
https://doi.org/10.1007/s44163-022-00019-3
Schinagl, S., & Shahim, A. (2020). What do we know
about information security governance? “From the basement to the boardroom”:
towards digital security governance. Information and Computer Security, 28(2),
261-292. https://doi.org/10.1108/ICS-02-2019-0033
Selbst, A. D., Boyd, D., Friedler, S. A., Venkatasubramanian,
S., & Vertesi, J. (2019). Fairness and abstraction in sociotechnical
systems. In FAT ‘19: Proceedings of the Conference on Fairness, Accountability,
and Transparency (pp. 59-68). Association for Computing Machinery. https://doi.org/10.1145/3287560.3287598
Shneiderman, B. (2022). Human-centered AI. Oxford
University Press. https://tinyurl.com/3k6dpzad
Simbar, R., & Moghadam Lakani, S. F. (2022). Changes in
the balance of international power in the light of China’s artificial intelligence.
Journal of World Sociopolitical Studies, 36, 59-77. https://doi.org/10.22059/wsps.2022.336553.1268
Taeihagh, A. (2021). Governance of artificial intelligence.
Policy and Society, 40(2), 137-157. https://doi.org/10.1080/14494035.2021.1928377
Van Veldhoven, Z., & Vanthienen, J. (2021). Digital
transformation as an interaction-driven perspective between business, society,
and technology. Electronic Markets, 32, 629-644.
https://doi.org/10.1007/s12525-021-00469-0
Van Veldhoven, Z., & Vanthienen, J. (2023). The role of
trade associations in the digital transformation of their industry. Digital
Transformation and Society, 2(3), 235-256. https://doi.org/10.1108/DTS-11-2022-0058
Verheij, B. (2020). Artificial intelligence as law.
Artificial Intelligence and Law, 28(2), 181-206.
https://doi.org/10.1007/s10506-020-09266-0
Veale, M., & Zuiderveen, F. (2021). Demystifying the
Draft EU Artificial Intelligence Act-Analysing the good, the bad, and the
unclear elements of the proposed approach. Computer Law Review International,
22(4), 97-112. https://doi.org/10.9785/cri-2021-220402
Vesnic-Alujevic, L., Nascimento, S., & Pólvora, A.
(2020). Societal and ethical impacts of artificial intelligence: Critical notes
on European policy frameworks. Telecommunications Policy, 44(6), 101961. https://doi.org/10.1016/j.telpol.2020.101961
Walter, Y. (2024). Managing the race to the moon: Global
policy and governance in Artificial Intelligence regulation – A contemporary
overview and an analysis of socioeconomic consequences. Discover Artificial
Intellifence, 4(14), https://doi.org/10.1007/s44163-024-00109-4
Whittaker, M., Crawford, K., Dobbe, R., Fried, G., Kaiunas,
E., Mathur, V., Myers, S., Richardson, R., Schultz, J., & Schwartz, O.
(2018, diciembre). AI Now Report 2018. IA Now Institute. https://tinyurl.com/8v98uvas
Zajko, M. (2022, March). Artificial intelligence,
algorithms, and social inequality: Sociological contributions to contemporary
debates. Sociology Compass, 16(2), e12962. https://doi.org/10.1111/soc4.12962
Zueva, A., & Fairbrass, J. (2021). Politicising
Government Engagement with Corporate Social Responsibility: “CSR” as an Empty
Signifier. Journal of Business Ethics, 170, 635-655.
https://doi.org/10.1007/s10551-019-04330-5
Contribución de los autores
DDOI:
conceptualización, metodología, redacción del borrador inicial, análisis
formal, supervisión, administración del proyecto, visualización y revisión
final del artículo.
CXPP:
investigación, recopilación de datos, revisión del manuscrito, redacción,
revisión y edición, recursos y validación.
Fuentes de financiamiento
El
estudio fue autofinanciado.
Conflictos de interés
Los
autores declaran no tener conflictos de interés.
Correspondencia
Darwin
Daniel Ordoñez Iturralde
Avenida
de Las Américas #70 frente al Cuartel Modelo,
Guayaquil,
Ecuador.
+593992882503
dordonezy@ulvr.edu.ec