IESE Insight
IA, más allá del revuelo: “El verdadero problema es la concentración del mercado laboral”
Cualquier uso de la IA para optimizar o automatizar el trabajo humano no es una característica inherente de la tecnología, sino una decisión tomada por una persona. Por ello, nos corresponde a todos comprender mejor la IA y cómo aprovecharla éticamente. El profesor del IESE Sampsa Samila lo explica en esta entrevista, citando investigaciones en curso y casos de negocio.
Es oír hablar de inteligencia artificial (IA) y lo primero que nos viene a la cabeza es “me va a quitar el trabajo”. O “va a extinguir la humanidad”. O tal vez la carta abierta firmada por desarrolladores de la IA en la que piden que echemos el freno hasta que la entendamos mejor.
El profesor del IESE Sampsa Samila, director académico de la Iniciativa sobre Inteligencia Artificial y el Futuro de la Dirección, se ha propuesto hacer precisamente eso –entender mejor la IA– coordinando varios proyectos de investigación en curso sobre la IA y el futuro del trabajo.
En esta entrevista invita a no perder la calma mientras aborda estas cuestiones. Como recuerda, la IA es una herramienta que no hay que temer: de nosotros depende usarla bien basándonos en unos conceptos empresariales sólidos.
¿Cuáles son los objetivos de la Iniciativa sobre IA y el Futuro de la Dirección?
Es una agenda de investigación multidisciplinar que reúne a distintos profesores del IESE para realizar estudios cualitativos y cuantitativos sobre la IA en todo el espectro empresarial, desde el mercado laboral hasta la estrategia, las organizaciones, el liderazgo, la colaboración entre humanos y máquinas y la ética. También escribimos casos de negocio para nuestros programas.
El objetivo es ayudar a los líderes empresariales a desarrollar su conocimiento y habilidades en relación con la IA para poder gestionarla de un modo ético y socialmente responsable.
Una de las cosas que estamos estudiando es el efecto de la automatización en los mercados laborales. MIT professor Daron Acemoglu ha investigado el fenómeno del desplazamiento de trabajadores causado por las tecnologías de la automatización sin que haya habido ninguna ganancia real en productividad, ahorro de costes o calidad del servicio.
En otras palabras, las empresas se están automatizando incluso cuando es ineficiente. En nuestra investigación hemos hallado un mecanismo que explicaría por qué está ocurriendo esto.
En parte, se debería a la percepción de que la automatización o desarrollo tecnológico es inevitable. En el comercio, donde esto se percibe más como una decisión política, las personas cuyo trabajo se ve directamente afectado por, digamos, un aumento de las importaciones, son más proclives a apostar por un mayor proteccionismo, por ejemplo.
Sin embargo, en lo concerniente a la automatización del trabajo, la gente adopta una actitud más pasiva. Especialmente allí donde las empresas tienen suficiente poder de mercado laboral –como un gran empleador local con muy pocos competidores a nivel laboral–, la amenaza del desempleo hace que la gente esté más dispuesta a aceptar la automatización, aunque vaya en contra de sus propios intereses e incluso presione a la baja los salarios de quienes conservan su empleo. Tenemos evidencias empíricas que apuntan en esa dirección.
Se suceden las amenazas “inevitables” de la IA a la existencia humana. ¿Qué opina al respecto?
El riesgo de extinción no debería inquietarnos. Hay preocupaciones más realistas y urgentes, como el proceso de ajuste, la desigualdad de la renta o el poder económico. Volviendo a nuestra investigación, el verdadero problema no es la IA, sino la concentración del mercado laboral.
La IA o la automatización es solo una herramienta que brinda una nueva arma a las empresas poderosas. Las tecnologías no crean ni destruyen empleo por sí mismas. Eso lo hacen las empresas, que están lideradas por directivos que toman decisiones concretas. Todo uso de la IA, ya sea para aumentar o automatizar el trabajo humano, no es una función intrínseca de la tecnología, sino una decisión adoptada por directivos humanos.
Me preocupa más que las presiones de alto perfil para regular o detener el desarrollo de la IA bloqueen la entrada de nuevos actores al mercado, limiten la competencia y aumenten la concentración hasta terminar en una economía global dominada por una, dos o tres grandes empresas estadounidenses. La concentración del poder económico es un riesgo mucho más real y tangible para el bienestar que nuestra hipotética extinción por la IA.
Si las empresas, los directivos y los empleados somos quienes determinamos el futuro de la IA, ¿qué deberíamos estar haciendo?
Como los retos que plantea la IA tienen que ver más con la dirección que con la tecnología en sí, el papel de los directivos es fundamental. Si la IA transforma los procesos de negocio principales, no es algo que se pueda delegar a terceros o dejar que simplemente ocurra.
Todos tenemos la responsabilidad de adquirir una comprensión conceptual sólida de la IA, su aplicación empresarial y su provecho. Dado que el alcance de sus responsabilidades y su poder de decisión son mayores, los CEO deben conocer la tecnología y qué dirección podría tomar. Su capacidad para liderar y motivar es crucial para embarcar a toda la organización en este viaje transformativo.
¿Y contratar a más empleados júnior con las nuevas habilidades de IA que se necesitan?
La estrategia de una empresa que estamos estudiando se basa en ver cómo puede automatizar algunas de las tareas que realizan los empleados a punto de jubilarse, y luego contratar nuevos perfiles con las capacidades que necesita sin restructurar radicalmente toda la organización, que es lo que suscita muchas de las inquietudes relacionadas con la IA.
A muchos directivos les preocupa el tratamiento de los empleados que ya tienen: ¿qué hacer con los que carecen de las habilidades necesarias? ¿Cómo les enseñamos? ¿Y si no quieren aprender ni usar las nuevas herramientas?
Buena pregunta: ¿qué haces?
Diseña herramientas de IA que redunden en su beneficio. Es una idea relativamente obvia, avalada por la evidencia científica, pero no siempre fácil de implantar. La tecnología crea nuevas oportunidades, y eso anima a algunos empleados, pero en toda transición siempre hay cierta resistencia y, por tanto, desafíos, a la hora de gestionarla desde un punto de vista humano. Estos son algunos de los aspectos clave que cubrimos en el programa enfocado del IESE Artificial Intelligence for Executives.
Para ayudar a otras compañías a hacer la transición a la IA, en clase usamos un caso sobre la implementación de la IA en una empresa cuyo uno de sus directivos cursó nuestro programa de IA.
Aquella empresa estudió concienzudamente qué ventaja podría darles la IA. Después, se ayudó de la IA para trabajar mejor: desde recopilar y compartir más información hasta decidir mejor con la analítica y las herramientas de la IA predictiva. Invirtieron en esas áreas y, aunque contrataron expertos en IA, no despidieron a nadie por carecer de habilidades de IA.
Es ahí donde trata de incidir el IESE: ¿cómo debería ser la adopción humanista de la IA? ¿Cómo organizas el trabajo, tratas a tus empleados y gestionas la empresa desde la ética?
¿Qué opina de la IA generativa?
Tenemos un caso sobre OpenAI que aborda las implicaciones éticas y empresariales de los grandes modelos de lenguaje como GPT-4. Hablamos, entre otras cosas, de cómo velar por que la IA beneficie a toda la humanidad. En estos momentos estamos trabajando con empresas que usan la inteligencia artificial generativa.
La propiedad intelectual genera un importante dilema. Todos los días aparecen demandas de artistas y creadores de contenidos que afirman que sus materiales protegidos por derechos de autor se han usado sin su permiso para entrenar los algoritmos de IA, que después los reproducen en todo lo que generan.
¿Se ajusta el entrenamiento de un algoritmo a un “uso justo”, por el que se permite el uso sin permiso de una cantidad limitada de material protegido por derechos de autor? Es una cuestión ética, pero también jurídica que deben debatir reguladores y tribunales. En Japón, con el fin de alentar el desarrollo de la IA, el legislador ha dictaminado que el entrenamiento de un algoritmo con cualquier material no es una violación de derechos de autor.
Otro dilema es si los contenidos no generados por humanos se pueden proteger con derechos de autor o patentar. En Estados Unidos la legislación es muy clara: no se puede, aunque algunas de esas leyes tienen más de 200 años. ¿Cuánto se ha de modificar un contenido original para impedir que una persona pueda reclamar sus derechos de autor sobre el mismo? ¿En qué porcentaje de la invención de la IA tiene que participar la inteligencia humana para que se considere que debe ser protegida?
Sudáfrica es el primer país del mundo en permitir que las invenciones generadas por IA reciban protección de patentes, un paso que para algunos va demasiado lejos y es demasiado prematuro.
Parece que habrá distintos regímenes regulatorios sobre la IA.
Eso no tendría por qué ser algo malo. No sería tan distinto a lo que hay ahora. India bloqueó las aplicaciones de China y esta las de Estados Unidos, lo que condujo al desarrollo en China de aplicaciones de ámbito nacional. Meta no pudo lanzar Threads en Europa debido a legislación sobre privacidad de la UE, que es más estricta.
Si la diferencia de regímenes refuerza la regulación antimonopolio, podremos ver las ventajas de la competencia en el mercado y no la situación negativa que tenemos ahora, con todo el poder económico concentrado en unas pocas corporaciones, lo que supone precios más altos y salarios más bajos.
Tal y como están las cosas, todos dependemos de Microsoft. Usamos Google para las búsquedas. Todos mis dispositivos son Apple y me resultaría muy difícil cambiar de marca. ¿Será ChatGPT la próxima big tech que domine el terreno de juego y deje fuera a todos los demás actores?
Todo lo cual me lleva a mi opinión más amplia sobre la IA: se trata de una herramienta tecnológica y, aunque la tecnología cambia, no así las leyes de la economía ni los fundamentos de la ventaja competitiva. Así como Internet cambió ciertas características económicas, pero no las leyes económicas subyacentes, tampoco veo que la IA vaya a cambiar las leyes de la economía o de la estrategia.
En nuestro caso sobre OpenAI analizamos las barreras de entrada: sigue siendo el mismo concepto de siempre, pero tratamos de entenderlo en términos de lo que significa hoy, en el nuevo contexto de los grandes modelos de lenguaje. Es importante que los directivos aborden la IA con este tipo de pensamiento conceptual.
Hablando de ceñirse a los fundamentos, ¿deberíamos aprender a programar?
Debemos seguir aprendiendo programación porque, a medida que se vuelva más eficiente y por tanto más barata, le sacaremos más partido. En línea con la paradoja de Jevons en economía, al aumentar la productividad de la programación, podríamos terminar necesitando más programadores, y no al contrario, porque vamos a programar muchas más cosas.
Hay evidencias de que quienes han usado ChatGPT para escribir códigos lo han hecho más rápido, pero sus códigos no han sido tan buenos ni tan seguros –hubo más fallos y errores– como los escritos solo por humanos. De ahí que sea poco probable que la programación se automatice en un futuro próximo.
Otro problema es que ya nadie escribe códigos desde cero, sino que juntan bibliotecas de códigos existentes. Si la IA junta las bibliotecas y comete un error al hacerlo, todo aquel que use ese programa se verá afectado por el mismo fallo. Si sabes de programación, entiendes cómo funciona. Pero si no sabes y te ayudas de estas herramientas de IA para pensar y razonar, y todo el mundo usa la misma herramienta para ello, podría empujarse toda la distribución de pensamiento sobre un tema en una única dirección (potencialmente negativa).
Esto va más allá del sesgo. La gente tiene muchos sesgos diferentes. Estoy hablando de un algoritmo con un sesgo determinado que todo el mundo acaba adoptando, por lo que incorporamos el mismo sesgo en todo lo que hacemos y ni siquiera nos damos cuenta.
Además, la programación es útil para desarrollar un pensamiento conceptual. Con él, los grandes modelos de lenguaje han adquirido su capacidad de “razonamiento”, por lo que entender la programación ayuda a entender cómo “razona” la IA.
La IA avanza muy rápido. ¿Se pueden hacer predicciones que no queden desfasadas enseguida?
Solo me atrevo a decir que ninguna predicción sobre la IA se ha materializado todavía, ya sea que eliminará completamente tal categoría de empleo o que avanzará mucho más rápido de lo que en realidad ha hecho hasta ahora.
Por ejemplo, unos primeros estudios que decían que la IA podía detectar enfermedades a partir de radiografías mejor que los humanos llevaron a predecir que la IA reemplazaría a los radiólogos. Como es obvio, eso no ha ocurrido; seguimos sin tener un sistema de IA que diagnostique imágenes mejor que un médico y, más bien al contrario, lo que hay es escasez de radiólogos. Para la mayoría de los radiólogos, interpretar un escáner es solo una de sus muchas tareas.
¿Qué deparará el futuro a los grandes modelos de lenguaje y la IA generativa? Los avances dependerán de los costes computacionales, la disponibilidad de datos de entrenamiento y la mejora de la arquitectura de los modelos. Un hallazgo constante ha sido que cuanto más, mejor: más computación, más datos de entrenamiento y modelos más grandes. ¿Seguirá siendo así? Posiblemente, aunque no está garantizado. A medida que los modelos crecen en tamaño, también lo hacen los costes computacionales.
Asimismo, los chips GPU actuales a cargo de la computación tienen límites de memoria, lo que limita el tamaño práctico de los modelos. Los avances tecnológicos resolverán estos problemas, pero no sabemos con qué rapidez ni a qué coste. Está por ver el impacto de la nueva generación de GPU lanzado por Nvidia.
La disponibilidad de datos de entrenamiento útiles es otro factor. ¿Se ha alimentado ya el sistema con todo el material de entrenamiento útil de que disponían los desarrolladores y, por tanto, hay escasez de datos y materiales de “razonamiento” complejo? Alimentar los modelos con, pongamos, novelas no tiene por qué mejorarlos, pues no aportan contenido esencialmente nuevo ni conceptualmente significativo. De todas formas, ¡quizá la próxima generación nos sorprenda!
Sampsa Samila agradece el apoyo financiero de la Agencia Estatal de Investigación del Ministerio de Ciencia e Innovación del Gobierno de España, el programa Horizonte 2020 de la Comisión Europea, el Social Trends Institute y AGAUR (Generalitat de Cataluña) a las investigaciones en curso con sus colegas del IESE.
Consejos para interactuar con la IA
- Ignora el revuelo. En lugar de preocuparte por tu supuesta extinción, piensa cómo puede ser útil la IA para tu trabajo.
- Separa la paja del grano. Céntrate en las propiedades principales de la herramienta.
- Experimenta con la IA:
- Escribe textos cortos. Puede resultarte muy útil para elaborar resúmenes o un esquema del artículo en el que esté trabajando.
- Pídele ideas. Aunque no llegues a usarlas todas, podría haber una o dos joyas. Intercambia ideas. Una conversación con la IA puede desafiar y afinar tu pensamiento sobre un tema.
- Intenta entender la IA conceptualmente. Asegúrate de comprender a fondo cómo funciona tu negocio –la idea principal de lo que haces para tus clientes y la propuesta de valor principal, difícil de replicar por otros– antes de estudiar cómo la IA podría añadirle valor y cómo podrías tú capturar una parte de ese valor.
- Personalízala. Debe tener sentido en tu contexto y coherencia con tus valores.
Esta entrevista se publica con el título “IA: más allá del revuelo” en IESE Business School Insight 165.