IESE Insight
Hacia una inteligencia artificial ética en la empresa
La inteligencia artificial está revolucionado múltiples sectores tanto por las posibilidades que ofrece como por los desafíos éticos que plantea.
Por Bruno Martínez y Joan Fontrodona
La IA promete grandes avances que, tal como se ha visto en este cuaderno, si se canalizan hacia el bien de las personas tiene el potencial de mejorar la calidad de nuestras vidas de un modo sin precedentes. No obstante, el desarrollo de los sistemas de IA presenta toda una serie de desafíos en cuanto a su diseño y uso, que suscitan algunas dudas tanto entre los distintos agentes implicados como entre la opinión pública.
En cuanto a su implementación, si bien esta es amplia en cuestiones relativas a la mejora de la eficiencia de tareas o en términos de entretenimiento, en el ámbito económico y laboral es considerablemente inferior debido a las no pocas preocupaciones que despierta, al igual que lo hace en el aspecto de la privacidad de los datos. En respuesta a estas inquietudes, se han promovido diferentes regulaciones que persiguen garantizar un uso correcto de esta tecnología. Al respecto, la reciente Ley de IA la UE (2024) ha marcado un hito importante en esta dirección.
En el caso concreto del sector empresarial, la IA también está ganando terreno debido a los grandes beneficios que ya están experimentando las organizaciones que la están implementando para la realización de actividades diversas. Sin embargo, el riesgo de comisión de errores que puedan perjudicar gravemente su reputación es, entre otros, un motivo de peso por el que muchas de ellas se muestran reticentes a incorporar esta tecnología. En este sentido, al tratarse de una materia en continuo desarrollo, se hace difícil definir la forma concreta en que aquellas deben implementar estas ideas y la manera en que pueden garantizar un uso adecuado de la IA. Por ello, acudir a certificaciones y estándares elaborados, en su gran mayoría, por grupos de expertos, en consonancia con las principales directrices éticas representa, hoy en día, un medio más que fiable a través del cual las compañías tienen a su alcance asegurarse de que la implantación de sistemas de IA es acorde a toda una serie de principios éticos a partir de procedimientos claros y definidos.
En cualquier caso, lo que resulta innegable –e invita, en cierta manera, al optimismo– es que las potenciales bondades económicas que brinda esta tecnología no están dejando de lado la preocupación por el bienestar de la sociedad. En este sentido, parece que estamos optando por asegurar un desarrollo tecnológico a partir de unos requisitos mínimos con el objetivo de no comprometer nuestras formas de vida ni vulnerar nuestros derechos más fundamentales. El hecho de no precipitarse hacia lo desconocido, lo cual podría provocar toda una serie de consecuencias negativas en el bienestar de las personas, y la priorización de un desarrollo precavido y responsable son, sin duda, grandes noticias. Sin embargo, la responsabilidad de lograr que esta tendencia se mantenga recae, en gran parte, sobre las empresas, que deben seguir explorando estas novedades tecnológicas bajo esta línea de desarrollo consciente y ética.
Por último, si bien la aparición de un marco normativo en este ámbito se configura como un hito fundamental, cabe insistir en que la regulación no debe ser percibida como el único medio para asegurar un desarrollo y un uso ético de la IA. La palanca de las normas y de la regulación –y las certificaciones y los estándares que de ellas puedan derivarse– ha de apoyarse y complementarse con otras medidas, en especial con las que definan unos valores y unas competencias morales en los decisores (tanto quienes intervienen en el diseño e implementación de los sistemas de IA como los propios usuarios) para asegurar un uso ético de esta tecnología.
Fuente: Extracto de Hacia una inteligencia artificial ética en la empresa: aplicaciones, riesgos y respuestas normativas para su fiabilidad. Cuaderno de la Cátedra CaixaBank de Sostenibilidad e Impacto Social nº 62.