La humanización de la revolución algorítmica: el equilibrio entre datos y criterio humano
¿Cómo describirían el impacto de la inteligencia artificial en los distintos sectores en los próximos 5 años?
Resulta difícil pensar en horizontes de cinco años. En nuestro caso, incluso los planes estratégicos ya se formulan a tres años, porque la inteligencia artificial está provocando una aceleración exponencial que redefine las reglas del cambio. Hablamos desde nuestra experiencia de lo que significa la adopción tecnológica y, sobre todo, la rapidez con la que se produce.
Por ejemplo, la televisión necesitó unos 30 años en alcanzar los 100 millones de usuarios; algo similar ocurrió con el ordenador, la máquina de escribir, el caballo de vapor o el coche. Sin embargo, la inteligencia artificial, más concretamente ChatGPT logró esa cifra en menos de dos meses tras su lanzamiento. En menos de un año, se ha convertido en parte de nuestra vida cotidiana.
Ese impacto y rapidez es lo que debemos analizar. Desde nuestro punto de vista, la inteligencia artificial va a marcar una diferencia entre los innovadores y los optimizadores. La verdadera línea divisoria estará en cómo vamos a desarrollar las habilidades necesarias para aprovechar al máximo esta herramienta.
Además, es interesante ver que la sociedad pensaba que la inteligencia artificial vendría a liberarnos de tareas domésticas como hacer la cama, planchar o cocinar. Sin embargo, está sustituyendo actividades como la creación de contenidos, la poesía, el arte o el pensamiento abstracto.
En ese sentido, estamos viviendo una revolución comparable a la Revolución Industrial, con la diferencia de que ahora podemos aumentar nuestra productividad haciendo las tareas operativas rápidamente.
En LLYC hemos conseguido automatizar cerca del 30% de nuestros procesos a lo largo de este año. Esto supone un reto importante: estamos sustituyendo tareas básicas que servían para formar a los nuevos profesionales —los llamados entry level—, quienes empezaban realizando esas funciones antes de evolucionar hacia posiciones de consultor o senior consultant. Por ello, uno de nuestros principales focos ahora es cómo acelerar la formación interna mediante la inteligencia artificial.
En definitiva, creemos que esta tecnología ha llegado para transformar prácticamente el 100% de los procesos: la forma en que trabajamos, los métodos y las herramientas, aunque no cambie la esencia ni la relevancia de la consultoría.
¿Qué oportunidades y retos consideran más relevantes en la adopción de la IA a nivel global?
Destacaría tres aspectos. El primero es lo humano como diferencial estratégico, no como un recurso operativo. Si pensamos en la base de la inteligencia artificial, que proviene del machine learning, veremos que tiende a una creatividad basada en el algoritmo, en la media o en lo que piensa la mayoría. Y ahí es donde la creatividad humana marca la diferencia: en encontrar lo distinto, lo singular, lo que se sale del patrón. Ahí estará el verdadero nicho de valor frente a la masificación que traerá la inteligencia artificial.
El segundo punto es lo que denominamos “shadow artificial intelligence”, es decir, el riesgo del avance clandestino en el uso de la inteligencia artificial. Tenemos un reto como organizaciones: utilizar esta herramienta con prudencia, bajo criterios de regulación y responsabilidad. Igual que en su momento pasamos de la máquina de escribir al ordenador, o cambiamos nuestra forma de viajar o de reservar en un restaurante, ahora necesitamos establecer políticas claras sobre el uso de la inteligencia artificial. Y en el caso de la consultoría, esto es aún más relevante, porque debemos proteger la información confidencial de nuestros clientes y los proyectos que marcan nuestra diferencia.
El tercer reto es la pirámide del talento invertida. Como comentaba antes, estamos reinventando la cadena de desarrollo profesional. Ahora necesitamos formar y hacer crecer más rápidamente a los profesionales hasta alcanzar niveles senior, especialmente en las áreas de atención al cliente.
En definitiva, tres grandes oportunidades: el riesgo del uso clandestino de la inteligencia artificial y la necesidad de regularlo internamente; todo lo que implica el valor diferencial de la creatividad y del impacto humano frente a un algoritmo que trabajará de una forma muy similar; y, por último, el reto de la pirámide invertida del talento.
Desde su experiencia, ¿cuáles son los principales riesgos éticos y sociales que debemos tener en cuenta en este proceso?
Lo primero que destacaría es la crisis de confianza en la era de la autenticidad algorítmica, algo realmente impresionante. Yo lo aplico incluso a mi vida personal: el nivel de credibilidad que estamos otorgando a la inteligencia artificial es enorme, y sin embargo, en torno al 85% de las tareas o consultas que se le plantean pueden contener errores. No porque el sistema no funcione, sino porque un agregador de información basado en múltiples fuentes no puede garantizar certeza absoluta.
Esto nos lleva a la situación actual con el periodismo y el fenómeno de las fake news o las deepfakes. Necesitamos la labor de profesionales como los periodistas que contrasten la información, verifiquen las fuentes y asuman la responsabilidad de garantizar que lo que se comunica sea fidedigno.
Pongo un ejemplo real: los aviones y su tecnología están preparados para volar en piloto automático desde hace más de quince años. Es decir, podríamos no necesitar pilotos. Sin embargo, siguen siendo imprescindibles, porque ninguno de nosotros se subiría a un avión sin un piloto al mando. Y posiblemente, nunca lo haremos. Porque necesitamos saber que, si sucede algo, hay una persona responsable. No podemos delegar la responsabilidad ética en una máquina.
La inteligencia artificial es una herramienta, una máquina, y no podemos delegar en ella la responsabilidad de las decisiones. Lo mismo ocurre en el mundo de la consultoría: no podemos confiar en que una IA determine un resultado o una recomendación sin una supervisión humana. Del mismo modo, no podemos dejar en manos de una máquina la credibilidad, la ética o la verificación de una fuente de información.
Otro gran reto es el empobrecimiento relacional. La inteligencia artificial puede hacer que la eficiencia desplace a la conexión humana. Ya estamos viendo las consecuencias de esto en el uso excesivo de las redes sociales y en los problemas de salud mental relacionados.
En el ámbito profesional ocurre algo parecido: puede generarse una desconexión con las marcas, con la creación de contenido, con los insights que realmente nos inspiran. Si caemos en una especie de dictadura algorítmica, donde todo se decide por patrones, perderemos esa conexión genuina con el consumidor, con lo que nos emociona y nos impulsa a crecer.
Por lo tanto, debemos evitar ese empobrecimiento relacional. Y, volviendo al ejemplo del piloto del avión, la responsabilidad delegada es un espejismo.
No podemos trasladar esa responsabilidad a la inteligencia artificial. Creo que estamos ante una crisis de confianza, y debemos asegurarnos de que la información o el consejo sean fidedignos. No puede existir la responsabilidad delegada: alguien tiene que hacerse responsable. Y debemos evitar el empobrecimiento relacional, porque en el mundo de la comunicación y del marketing la conexión sigue siendo la clave. Si basamos las decisiones en un algoritmo que prioriza un tipo de contenido, de creatividad o de imagen, perderemos esa conexión con el consumidor, con lo que nos hace vibrar y con lo que nos hace crecer.
¿Qué papel juega la colaboración entre empresas, instituciones y sociedad en el desarrollo responsable de la IA?
Creo que el primer gran reto al que nos enfrentamos es la integración frente a la prohibición, o el falso dilema regulatorio. Pensar que el camino pasa por prohibir no es realista. Es lo mismo que ocurrió cuando quisimos regular el uso de las redes sociales dentro de las organizaciones: el nivel de conexión que tiene cualquier persona hace que el sentido común nos lleve más hacia la integración que hacia la prohibición.
La mejor manera de proteger los trabajos, los derechos y la propiedad intelectual (todo lo que generamos a través de la inteligencia artificial) es incorporarla al proceso, igual que hicimos con las computadoras, con los teléfonos móviles o con la capacidad de comunicarnos en nuestra vida personal y profesional.
La mejor colaboración es avanzar juntos, entendiendo los beneficios que esto nos aporta e integrándolo en nuestro día a día. Pensamos también que debemos trabajar en el concepto de un nuevo contrato social tecnológico, donde la transparencia sea un pilar fundamental. Es una idea muy poderosa. Necesitamos establecer ese contrato social tecnológico porque esto ya está impactando en el acceso a los puestos de trabajo y al mercado laboral en sí.
Antes hemos vivido procesos similares. Por ejemplo, desde el punto de vista energético: ¿cómo se reestructura un sistema eléctrico que da empleo a más de 100.000 personas en España frente a la utilización de energías solares o de baterías de almacenamiento? Ese es un ejemplo muy concreto que también podemos aplicar al autopiloto, en los coches o en los aviones. Todo ello demuestra que tenemos que generar un contrato social tecnológico en el uso de la inteligencia artificial.
Otro aspecto fundamental es la preservación del conocimiento verificable, que será un desafío colectivo. Porque, como mencionaba antes, ¿cuál es el conocimiento verificable?, ¿cuál es el conocimiento válido? A medida que la inteligencia artificial pasa del machine learning a la inteligencia artificial generativa, nos enfrentamos a una nueva pregunta: ¿cuál es la verdad? ¿Qué es lo que podemos verificar?
Por ejemplo, si antes necesitábamos 40 años de investigación para procesar una cadena de ADN y ahora podemos hacerlo en dos, ¿quién va a verificar que ese es el verdadero procesamiento desde el punto de vista de su aplicación sanitaria, por ejemplo?
Por eso, las empresas, las instituciones académicas y los gobiernos tendremos que colaborar para gestionar ese contrato social tecnológico que preserve la generación de conocimiento verificable. Y eso no puede venir solo de un ámbito; tiene que venir de todos: de la academia, de las empresas y de los gobiernos. De lo contrario, corremos un gran riesgo: no saber cuál es el conocimiento verificable o a quién puede estar afectando la aplicación de esa inteligencia artificial.
En su opinión, ¿qué particularidades tiene el impacto de la IA en la comunicación y en la gestión de la reputación?
Muchas. Si lo vemos desde la perspectiva de nuestra empresa, en LLYC lo definimos en tres pilares muy importantes. El primero es la economía de la autenticidad, cuando lo escaso se convierte en lo valioso. Volvemos a pensar a contracorriente, desde el nicho, desde el concepto del long tail. Con el uso de la inteligencia artificial, todo será muy parecido, y ahí lo más importante será lo auténtico, aquello que mantenga un componente genuino y humano, aunque esté apoyado en herramientas de IA. Y en ese punto, esta va a ser la labor de la consultoría.
El segundo pilar es la paradoja de la eficiencia comunicativa. La IA nos dice qué es lo óptimo: cómo aprovechar mejor los recursos, las imágenes o los textos para generar contenido. Pero eso no significa que sea lo más eficaz. Seguimos necesitando el pensamiento creativo, lateral y emocional, aquello que no se basa en un algoritmo. Por eso, debemos entender que lo óptimo no siempre es lo más efectivo.
El tercer aspecto tiene que ver con la nueva ecuación de la transparencia, con ese paso del qué al cómo. La gestión reputacional de una organización va a dejar de centrarse solo en el contenido de la comunicación y se pondrá mucho más valor en la relación.
Nosotros lo vemos a diario con nuestros clientes, debemos aprovechar la optimización que ofrece la inteligencia artificial, pero creemos que las organizaciones se definen por las personas. Una compañía me cae mejor o peor por la relación personal que tengo con su CEO, ya sea de una aerolínea, una tecnológica o una empresa de inversión. Esa conexión humana es la que genera una decisión o un call to action.
Por eso, más que nunca, en un entorno donde todo tiende a parecerse, la gestión de la reputación dependerá de las personas y de la relación humana que tengamos con la organización o la marca. Ese paso del qué al cómo, dentro de esta nueva ecuación de la transparencia, será fundamental en el contrato social tecnológico.
¿Cómo creen que la IA está cambiando la relación entre marcas, medios y audiencias?
Ese es un punto nodal en el que también debemos estar muy centrados como organización. Lo primero que destacaría es el discernimiento, es decir, los filtros que aplicamos ante esta nueva realidad.
Si no establecemos filtros claros, perderemos autenticidad. Y cuando se pierde la autenticidad, se pierde la conexión; y si no hay conexión, también se pierden ventas. Por lo tanto, la gran pregunta es: ¿cuál es la nueva realidad y quién actúa como verificador de esa autenticidad en la relación entre las marcas? ¿Cuántas marcas están cayendo en lo mismo? Además, se produce inmediatamente una falta de diferenciación entre lo que hace una marca y lo que hace otra.
Estamos viendo cómo muchas marcas están cayendo en esa homogeneización de mensajes y formatos, lo que lleva a una pérdida de diferenciación. Esto se refleja, por ejemplo, en lo que está ocurriendo en el sector del lujo: asistimos a una crisis de las marcas tradicionales y al surgimiento de un nuevo concepto de lujo, basado precisamente en el discernimiento, la autenticidad y la realidad. No en lo que una marca intenta comunicar, sino en lo que realmente transmite.
La simplicidad y la claridad se están convirtiendo en una ventaja competitiva. Es el triunfo de la simplicidad accesible. Y aunque no es algo nuevo, gran parte del éxito actual de la inteligencia artificial, independientemente de la herramienta que utilicemos, radica precisamente en su capacidad para simplificar.
En explicar algo sofisticado de manera concreta, directa y comprensible. De hecho, cerca del 54% de los usuarios utiliza la IA para entender o explicar de forma sencilla conceptos complejos.
Otro punto clave es el rol del mediador. Hemos pasado de centrarnos en producir contenido, que era el foco principal, a verificar ese contenido. Y ahora debemos dar un paso más: asumir la responsabilidad de lo que comunicamos. Es decir, garantizar que lo que decimos es verdadero, transparente y claro, porque hay una persona detrás que se hace responsable de ese mensaje.
Por lo tanto, el objetivo no es la inteligencia artificial en sí misma. Desde nuestro punto de vista, la IA sigue siendo una herramienta. En el ámbito del marketing, lo que continúa marcando la diferencia es la conexión emocional, la autenticidad, la transparencia y la flexibilidad.
¿Qué nivel de madurez perciben en el sector de la comunicación respecto al uso de estas tecnologías?
Creo que hay una adopción muy rápida. Además, todos pensábamos que esto iba a avanzar aún más deprisa en las siguientes fases de adopción, y ya nos hemos dado cuenta de que tampoco era tan sencillo alcanzar ese crecimiento exponencial. En primer lugar, por el acceso a los datos, que además presentan una fuerte preponderancia del inglés o de una cultura más anglosajona.
Y ahí corremos el riesgo de perder la diversidad, los matices, los insights culturales y las diferencias. Por más que pensemos que el acceso a la información y la explicación de un concepto sencillo pueda basarse únicamente en los datos o en un idioma, no podemos perder la perspectiva cultural, que impacta en la gastronomía, en el arte, en la literatura o en el teatro.
Todos esos matices no están presentes en el uso actual de la inteligencia artificial. Por lo tanto, nos enfrentamos a lo que podríamos llamar la paradoja del comunicador: somos los expertos en la novedad y en la utilización de esta herramienta, pero posiblemente también somos quienes mostramos mayor resistencia al cambio interno. Porque todo el mundo dice que está dispuesto a cambiar… hasta que le toca hacerlo. En ese instante, todo lo que hacíamos o la manera en que lo hacíamos parece mejor.
Nos enfrentamos, por tanto, al reto de cerrar la brecha entre la adopción táctica —el uso de la herramienta para resolver una necesidad concreta, como encontrar un café en una ciudad desconocida— y su integración en una transformación estratégica.
Esa brecha es, sobre todo, educativa y formativa: no basta con tener el deseo de usar la tecnología, hay que desarrollar las habilidades, las capacidades y la disposición real para cambiar. Esto explica por qué, en determinadas tareas, la adopción es muy rápida, pero el verdadero valor está en preguntarnos qué aportamos cuando la producción de contenido se democratiza.
El valor siempre reside en la escasez: lo escaso es lo que tiene mayor valor. Lo vemos cada vez que una tendencia se masifica: pierde exclusividad. Nosotros defendemos precisamente ese concepto de escasez asociado al valor diferencial de la consultoría, que no puede ni debe confundirse con la producción masiva generada por la inteligencia artificial.
El verdadero indicador del nivel de madurez en la adopción de la IA no está en si una empresa usa herramientas de inteligencia artificial, sino en si tiene una estrategia basada en la inteligencia artificial. De hecho, ya está surgiendo la figura del responsable de inteligencia artificial dentro de las organizaciones.
Necesitamos a alguien que lidere y evalúe cuál es el impacto real de la IA en nuestra estrategia. Porque, si no, corremos el riesgo de caer en un protagonismo tecnológico que derive en invisibilidad instrumental. Y creo que ahí tenemos un reto enorme: definir con claridad qué papel va a ocupar la inteligencia artificial dentro de nuestra estrategia.
¿Qué iniciativas o proyectos destacados están impulsando desde LLYC en torno a la IA?
Ahora mismo estamos trabajando en aplicaciones concretas. Lo primero es LLYC. Muchas organizaciones de nuestro sector éramos expertos en SEO y en posicionamiento en buscadores. Actualmente, en cambio, tenemos que ser expertos en posicionamiento en LLMs, porque muchas de nuestras decisiones de compra se están basando en lo que nuestros asistentes basados en inteligencia artificial definen o nos recomiendan.
Esto lo estamos aplicando también a las estrategias de posicionamiento de las personas. Antes, cuando preparabas una reunión, lo habitual era buscar en Google —o en el buscador de tu preferencia— toda la información y referencias sobre la otra persona. Hoy, en cambio, podemos preparar esa reunión a través de cualquiera de nuestros asistentes de IA, que nos permiten conocer qué le interesa a esa persona, cuáles han sido sus últimas declaraciones, cómo evoluciona su compañía, qué proyectos está liderando o qué áreas está gestionando con mayor o menor éxito.
Eso está generando nuevos procesos de decisión y de posicionamiento, mucho más sofisticados que los que teníamos desde la perspectiva de la optimización SEO. Hemos pasado a la era de la optimización LLM, que consiste en convencer a estos asistentes de IA de que la compañía o el directivo tiene el posicionamiento estratégico que queremos proyectar. Porque, de lo contrario, el consumidor puede tomar decisiones de compra o de relación basadas en información que no está optimizada.
Y eso es tremendamente impactante: está condicionando incluso cómo te percibo o cómo me relaciono contigo.
¿Podrían compartir algún caso de éxito en el que la IA haya generado un valor diferencial para sus clientes?
Tenemos varios casos de éxito, especialmente en el ámbito de las evaluaciones reputacionales. Por ejemplo, antes necesitábamos entre dos y tres semanas para elaborar un informe completo sobre la situación de una compañía o un directivo. Ahora, gracias a la inteligencia artificial, podemos desarrollar ese mismo análisis en menos de media jornada, manteniendo el mismo nivel de profundidad y rigor que antes.
En el ámbito del marketing digital, la IA también ha supuesto un salto enorme en eficiencia. Para una buena campaña en redes sociales, antes podíamos llegar a desarrollar hasta 12.000 piezas creativas al año. El esfuerzo humano que eso requería era prácticamente inviable, tanto en recursos como en coste, porque ningún cliente podía asumirlo.
Hoy, gracias a la optimización de diseños basada en inteligencia artificial, podemos producir ese mismo volumen de piezas con la mitad de los recursos.
Desde el punto de vista de la comunicación corporativa, la IA también nos permite identificar mucho más rápido los insights sociales que están moviendo una conversación. Antes, analizar 110 millones de datos podía llevarnos un mes de trabajo; ahora, ese mismo volumen de información lo procesamos en una semana.
¿Para qué? Para hipervitaminizar —por decirlo así— lo que hacemos después en la construcción del relato: identificar qué mensajes tienen más potencial para mover una conversación, acelerar su difusión y posicionarla de forma más efectiva.
¿Cómo integran la IA en su propia estrategia de consultoría, tanto en comunicación como en marketing?
Bueno, pues como te decía al principio, desde el punto de vista de los procesos, principalmente porque tenemos que seguir siendo muy responsables tanto en la protección de la información como en la generación de la propiedad intelectual del contenido. Pero estamos aplicando la inteligencia artificial en nuestros procesos financieros. Es decir, toda la parte de reportes financieros ya se basa en dashboards, en donde producimos las mismas presentaciones de manera automática sobre la base de un dashboard de datos, evitando que tengas que llegar a un comité ejecutivo o un steering committee habiendo preparado una presentación, puesto que nutriéndonos todos de la misma fuente de datos, el reporte se genera inmediatamente. Esto nos lleva a dedicar más tiempo a la toma decisiones, no al análisis de datos.
Desde el punto de vista de la optimización de recursos humanos, la identificación de perfiles, somos y seguimos siendo una compañía altamente dependiente del talento humano. Con herramientas de inteligencia artificial somos capaces de ordenar mucho mejor nuestra base de datos de candidatos, filtrar mucho mejor nuestra base de datos de candidatos y lo que es más importante, buscar de manera mucho más eficiente nuestra propia base de candidatos de la gente que puede marcar una diferencia. Desde el punto de vista del research y de la investigación, estamos desarrollando metodologías híbridas para la medición de intangibles, cómo se mide más eficazmente el sentimiento del lenguaje a la hora de una valoración reputacional, o cómo se mide la utilización del sentido del humor desde el punto de vista de un mensaje.
Esto está prácticamente reinventando toda nuestra manera de cómo nos acercamos a la parte del research, pero también desde el punto de vista del análisis de nuestra produ, como la inteligencia artificial nos está ayudando a medir como nuestras comunidades de talento están siendo más o menos productivas. También en el impacto de la automatización de procesos, porque por un lado, yo puedo decir que estoy automatizando el 30% de mis procesos, pero eso está impulsando mi productividad, está impulsando un mayor rendimiento neto por parte de cada uno de los equipos de trabajo.
Por lo tanto, cuando tú lo incorporas, y creo que es la clave, a tus procesos, te he puesto un ejemplo de optimización en nuestra área financiera, procesos de optimización en nuestra área de gestión del talento, procesos de optimización en nuestra área desde el punto de vista de research o procesos de optimización desde el punto de vista, en este caso, de nuestra productividad. Por lo tanto, ese concepto que narrábamos al principio, esto está impactando todas las áreas.
Desde su experiencia, ¿cuáles son los principales aprendizajes que han obtenido en la implementación de estas tecnologías?
El primero es que la inteligencia artificial debe formar parte de la estrategia, no ser simplemente una herramienta. Su impacto debe empezar por las tareas más básicas o más operativas, para liberar tiempo y permitir que las personas puedan crecer y dedicarse a tareas más sofisticadas.
Otro aprendizaje fundamental es entender la ética como una ventaja competitiva, no como una restricción. Incorporar criterios éticos en el uso de la IA no limita, sino que fortalece la confianza y la sostenibilidad de lo que hacemos.
Y, por último, hemos comprobado que una adopción significativa —como ocurre en cualquier proceso de cambio— requiere una transformación cultural, no solo tecnológica. Esto implica tanto aptitud como actitud.
Igual que hace dos años LLYC decidió transformarse en una compañía de Corporate Affairs y Marketing Solutions, este proceso también demanda una actitud decidida y una mentalidad abierta si realmente queremos generar un impacto significativo con el uso de la inteligencia artificial.
¿Qué visión tiene LLYC sobre el futuro de la consultoría estratégica en un mundo cada vez más mediado por la IA?
Para mí, el gran concepto transformador es la transición del conocimiento a la sabiduría aplicada. Es decir, lo primero en lo que estamos trabajando —y donde más impacto estamos generando— es en medir cuánto conocimiento posee LLYC, que este año cumple 30 años como firma, y cómo podemos aprovecharlo mejor.
La inteligencia artificial debe ayudarnos a reunificar todo ese conocimiento y esa experiencia acumulada, para hacer mejores a todos los profesionales de la compañía.
En este sentido, uno de los proyectos más relevantes es la democratización del conocimiento dentro de LLYC. Tradicionalmente, ese saber estaba muy concentrado en las personas con más experiencia, en quienes habían participado en los proyectos más importantes o enfrentado los mayores desafíos de la organización.
Ahora, gracias a la inteligencia artificial, estamos creando un modelo de universidad corporativa interna, que acelere el desarrollo de habilidades y capacidades, permitiendo que ese conocimiento sea compartido por todos.
Por tanto, la transición del conocimiento a la sabiduría aplicada es uno de los grandes desafíos que tenemos como organización. Además, entendemos la consultoría del futuro como la orquestación de tres inteligencias: la humana, la artificial y la colectiva.
En ese equilibrio entre la inteligencia artificial, la humana y la colectiva es donde tendremos éxito. Si terminamos pareciéndonos a un algoritmo o a la propia inteligencia artificial, los clientes acabarán diciendo que no necesitan ese punto de verificación, ni la creación de conocimiento original, ni la identificación de la comunicación emocional.
Si tuvieran que dar un consejo a organizaciones que aún no han dado el paso hacia la IA, ¿cuál sería?
Es difícil de ver todavía, en este proceso en el que estamos inmersos. Pero, desde nuestra experiencia en LLYC, creo que el primer aprendizaje es no confundir la experimentación con la transformación.
Todos seguimos experimentando con inteligencia artificial, pero eso no significa que ya nos hayamos transformado. Los modelos de transformación no son fáciles. Por eso, considero fundamental establecer laboratorios de inteligencia artificial y contar con una política clara de innovación o de activaciones en innovación.
En nuestro caso, llevamos ya dos años consecutivos realizando inversiones cercanas a los 25 millones de euros en innovación. Y algo importante: no hay que tener miedo a equivocarse. Que un experimento no funcione no significa que no debamos seguir probando. La IA, al fin y al cabo, se apoya también en el modelo del ensayo y el error, igual que nosotros.
Además, debemos empezar a construir sobre la base de la inteligencia artificial pensando en la era de la abundancia, no en la de la escasez. La mayoría de los modelos de negocio actuales fueron diseñados para un mundo de escasez: escasez de información, de recursos naturales, de transporte, de alimentación…
Sin embargo, la inteligencia artificial nos está llevando hacia una era de abundancia, también en muchos de esos ámbitos que antes eran limitados. Por lo tanto, tendremos que decidir cómo gestionamos esa transición.
Y, sobre todo, debemos priorizar la adaptabilidad humana por encima de la excelencia tecnológica. La inteligencia artificial la estamos creando los humanos; no se ha creado sola. Por eso, debemos seguir valorando cómo nos adaptamos al uso de esta herramienta, más que la herramienta en sí misma.
La IA nos da la capacidad de reimaginar y de cuestionar estratégicamente el por qué y el para qué de lo que hacemos, no solo el cómo. Por lo tanto, creo que tenemos que ser muy disciplinados en no perder la humanización de esta revolución algorítmica. Y, de hecho, me parece un buen titular: la humanización de la revolución algorítmica.
¿Cómo les gustaría que se recordara el rol de LLYC en esta transformación digital impulsada por la inteligencia artificial?
Sería algo así como el Citius, Altius, Fortius de las Olimpiadas: más altos, más fuertes, más rápidos. Esa es, precisamente, la esencia de utilizar una herramienta tan poderosa como la inteligencia artificial.Queremos ser una organización más ágil, más sólida y más veloz en su capacidad de adaptación y respuesta.
Y todo ello, siempre, con un fuerte componente ético: una ética aplicada al uso de esta herramienta que nos permita avanzar sin perder la humanización que debe acompañar a toda revolución tecnológica.


















