223. Hacer tandem con la inteligencia artificial.
Resumen en 453 palabras, 3 minutos de lectura.
Una inteligencia artificial es un modelo estadístico que, ante una pregunta, ofrece la cadena de palabras más probable. Por diseño y definición no entiende, no puede entender. Por eso una inteligencia artificial sólo te puede ofrecer la respuesta más probable, no la más precisa, y ni mucho menos la respuesta exacta. Acierta, sí, pero por estadística, no por entendimiento, precisión o conocimiento.
El problema es que entre que acierta y que resulta muy convincente (habla bien), tendemos a humanizarla: es eso de «el coche no quiere arrancar» Vs. «el coche no arranca». En fin, que nos la creemos.
Nos la creemos porque ya nos va bien. Es la ley del mínimo esfuerzo, que nos ha traído hasta aquí como especie, pero quizá nos lleve a la decadencia como civilización. Abandonarnos a la IA con la excusa de la prisa o el «no se me da bien» da lugar al sedentarismo cognitivo, estancando el desarrollo intelectual y potenciando la dependencia de ella.
Por eso, al trabajar con inteligencia artificial, lo primero es comprender su potencial y riesgos. No basta con delegar las respuestas: necesitamos pensamiento crítico para no darlas por buenas o malas, sin más.
No puede haber pensamiento crítico sin conocimientos sobre la materia en la que aplicamos IA. Sin conocimiento, no podemos detectar errores ni formular preguntas relevantes. Cuanto más sólido sea nuestro criterio, más útil y potente será el tándem con la máquina.
Pensamiento crítico y conocimiento nos permiten ser perspicaces, espabilados, lo que marca la diferencia. Nuestra chispa creativa, intuición y capacidad para conectar ideas aparentemente inconexas aporta un enfoque único que la IA no tiene. No solo resolvemos problemas con la información que recibimos, sino que generamos nuevas perspectivas.
Las calculadoras no reemplazaron la necesidad de aprender matemáticas. La inteligencia artificial no reemplazará la necesidad de saber interpretar, saber expresarse, o pensar de manera crítica. Al menos, por unos cuantos años.
Y lo cierto es que está bien formar un tándem con la inteligencia artificial, si hablamos de ciclismo:
- Dos personas pedaleando al unísono generan más vatios de los que produciría un único ciclista, eso se traduce en una ganancia de velocidad.
- Un tándem tiene una sola superficie frontal que corta el viento, la potencia combinada se utiliza de manera más efectiva para avanzar.
- El tándem rinde al máximo cuando los dos ciclistas están bien compenetrados en su forma de pedalear y comunicarse; si no, pueden surgir desajustes que echen a perder la ventaja teórica.
Por eso, forma un tándem con la inteligencia artificial, por supuesto, pero ocúpate de la dirección mientras seas tú quien asume las consecuencias de los aciertos y de los errores.
Cuéntame: ¿usas la inteligencia artificial?, ¿para qué?, ¿cuál usas? deja tu comentario en Spotify.
Hasta aquí el resumen.
Desde hace dos años, por estas fechas, hacía una entrevista a ChatGPT para conocer el estado del arte de la inteligencia artificial y su aplicación en nuestro ámbito, el de la contratación pública.
En 2025 entrevistar a ChatCPT con este propósito ya no tiene sentido. En dos años todo ha evolucionado mucho: la inteligencia artificial y también mi forma de preguntar. La entrevista ya no sería honesta ni daría una idea de los límites y posibilidades de usar ChatGPT o cualquier otra inteligencia artificial.
Por eso lo que sigue es una reflexión que resume mi experiencia y la que creo que debe ser la forma de encarar el uso de la inteligencia artificial por parte de un profesional que maneje conocimientos en su trabajo y sea susceptible de aprovechar su potencial.
Introducción: la inteligencia artificial es un desafío de adaptación.
El efecto de la inteligencia artificial en la sociedad, los negocios y el trabajo es equiparable a lo que en su día fue la máquina de vapor, la electricidad, y la televisión.
En cada gran oleada de innovación hay perjudicados. Con la máquina de vapor y la revolución industrial fueron los artesanos y trabajadores manuales, con el motor eléctrico fueron los trabajadores especializados en maquinaria de vapor. Con la inteligencia artificial… ¡ni se sabe aún!, aunque muchos ya le están viendo las orejas al lobo.
Las transformaciones tecnológicas también suponen ventajas, para quienes las saben aprovechar. Los herreros empezaron a construir máquinas, los mecánicos empezaron a usar la electricidad, los trabajadores del conocimiento como tú se refuerzan para ser el humano de referencia, el humano formado, con criterio y agudeza.
Hoy la clave para aprovechar las ventajas, para no salir perjudicado, no es manejar la nueva tecnología; ya se ocupa ella de eso. La clave para aprovechar la inteligencia artificial es formar tándem con ella, y para eso reforzar todo lo que te distingue como humano:
- El conocimiento que permite aprovechar «los pliegues»,
- el pensamiento crítico para cuestionar las respuestas,
- la perspicacia para identificar lo oportuno.
Y unas cuantas cosas más, habilidades, en fin, propias de humanos. Esto es lo importante.
Antes de la inteligencia artificial.
Antes de abordar el cómo formar tándem con la inteligencia artificial, conviene conocer a grandes rasgos sus características principales.
Shakespeare escribió “Lo pasado es el prólogo”, y en este caso también es de aplicación. Lo que conocemos como inteligencia artificial tiene su origen en la pasada década con el Big Data, que convirtió los cálculos aritméticos en algo más probabilístico que preciso. Esta particularidad hace más importante el hecho de disponer de más datos que mejores algoritmos. Justamente, lo que a día de hoy constituye la raíz de las disputas sobre el material de entrenamiento de los modelos de inteligencia artificial: los datos en los que se basa.
La cuestión es que, así funciona la inteligencia artificial, aplicando estadística sobre grandes cantidades de datos. La inteligencia artificial no es determinista, es probabilística, lo que a día de hoy implica que, por definición y diseño, no pueda ser precisa. Entender esto es esencial para aprovechar todo su potencial.
Por eso, en muchas ocasiones verás que responde de distinta manera a la misma pregunta, petición o prompt, pruébalo, y date cuenta de la enorme utilidad y también de los efectos no deseados que esto puede tener.
Así funciona un LLM o inteligencia artificial.
Una inteligencia artificial como ChatGPT, Claude o Llama, son grandes modelos de lenguaje o LLM – Large Language Model en inglés.
Un modelo de lenguaje grande es un modelo estadístico construido sobre la base de grandes cantidades de texto (recuerda que es más importante tener más datos que mejores algoritmos). Lo que hace el modelo es predecir, en función de lo que se le plantea, la cadena de palabras o respuesta más probable.
A esto se le conoce como Procesamiento del Lenguaje Natural (PLN), que es el medio por el que las palabras del humano se convierten en una abstracción matemática (tokenización) y las respuestas del modelo matemático en algo entendible, palabras.
El modelo de procesamiento que utiliza ChatGPT, Claude o Llama es un modelo autorregresivo, un modelo entrenado para predecir la siguiente palabra de una secuencia. Es decir, que trabaja prediciendo la palabra o parte de la palabra que va después.
Es fácil de entender. ¿Qué es lo más probable que siga a estas frases?:
- «Con cien cañones por banda…»
- «Volverán las oscuras golondrinas…»
- «Dale a tu cuerpo alegría… Que tu cuerpo es p’darle…»
Bien, siguiente paso.
Un LLM, un gran modelo de lenguaje, identifica y aplica patrones a partir de enormes cantidades de datos. Trabaja basándose en lo más probable, se trata de estadística en definitiva, aunque muy refinada, eso sí, de ahí que acierte tanto.
Por eso un gran modelo de lenguaje, llámalo inteligencia artificial, lo que se dice saber, no sabe nada, solo se ajusta a los patrones que ha identificado en el corpus de datos que se le ha dado y con el que ha sido entrenada.
Porque, efectivamente, a un modelo de lenguaje se le entrena para ajustarlo y hacerlo más certero, que no preciso. Insisto, ten en cuenta que se trabajan modelos probabilísticos, no deterministas.
De hecho, cuando ese ajuste es demasiado fiel a los patrones que identifica el modelo, se produce el efecto de sobre-ajuste y entonces los resultados acaban siendo como los de un estudiante, que se aprende de memoria las preguntas y respuestas de un examen anterior sin entender realmente la materia. En cuanto le cambian un poco las preguntas, se queda totalmente bloqueado.
Si hablamos de un modelo de lenguaje, de inteligencia artificial, lo que ocurre con el sobre-ajuste es que el modelo pierde la capacidad de generalizar y empieza a responder de forma repetitiva, no sabe adaptarse a situaciones distintas.
Para evitar ese «estudiante que solo memoriza» los modelos de lenguaje incluyen un componente de aleatoriedad que les permita dar más variedad en las respuestas. Lo que produce el fenómeno de las alucinaciones: que la inteligencia artificial directamente se invente algo que no corresponde con la realidad, pero que según sus cálculos es probable.
Hay muchos casos en los que se puede evidenciar esto, aunque hayas condicionado al modelo pidiendo el máximo de precisión en sus respuestas. Por ejemplo, en una consulta sobre contratación pública puedes encontrar respuestas en las que el modelo cite artículos de la ley con un contenido que no tiene nada que ver con el tema que le planteas, o incluso a referir resoluciones de Tribunales Administrativos de Recursos Contractuales que no existen o no tienen nada que ver con tu pregunta. Te ofrece, simplemente, lo más probable.
¿Tiene un problema el modelo, la inteligencia artificial? No, en absoluto. El modelo es, hoy por hoy y por definición, así.
¿Es probable que todo esto se acabe corrigiendo? Es difícil pronosticarlo, aunque de momento las cosas no van por ahí. Lo que sí es cierto es que cada vez habrá que estar más despierto y con más conocimientos para discernir qué es útil y dónde está patinando, alucinando.
Así funcionas tú ante un LLM o la inteligencia artificial.
En tan solo dos años ya se han hecho evidentes dos grandes riesgos que corremos los usuarios de estos modelos de lenguaje.
Primer riesgo: Somos más crédulos ante las respuestas de un modelo de lenguaje.
Lanzar una pregunta en Google ofrece varios resultados. Tu trabajo y responsabilidad es seleccionar cuál es el adecuado, razonado y ajustado a tu pregunta.
Lanzar una pregunta a un modelo de lenguaje, a una inteligencia artificial, es otra historia. Los modelos de lenguaje escriben muy bien, algo que, a estas alturas, ya no te extraña porque sabes cómo se entrenan. Precisamente por esa habilidad para escribir con fluidez y ofrecer siempre una buena respuesta, resultan tan convincentes. Y esto es un problema.
Ten en cuenta que incluso la forma que tienes de preguntar algo condiciona la respuesta que vas a recibir, o sea que, para colmo, hay muchas probabilidades de que el modelo te responda lo que quieres o crees que necesitas oír. ¿Problema del Rey Desnudo?… Pues de ti depende. Pero sigamos.
Ya que si a esto le sumamos que los humanos no nos relacionamos bien con abstracciones, y que tendemos a humanizar a antropomorfizar, tenemos la tormenta perfecta montada.
Piénsalo hay dibujos animados que humanizan un coche poniéndole ojos, o solemos decir «el coche no quiere arrancar» como si el coche tuviera voluntad en lugar de «el coche no arranca», o hablamos con Siri, o con Alexa, como si fueran personas.
Total, que pensamos que estamos dialogando con alguien, y como la inteligencia artificial es tan convincente, eficiente y «humana» en su forma de responder, tendemos a creer lo que nos dice, sin evaluar a fondo sus respuestas. Este es el primer problema que enfrentamos al relacionarnos y usar un modelo de lenguaje: nuestra credulidad derivada de la tendencia a humanizar cosas.
Segundo riesgo: El sedentarismo cognitivo, o la actualización de la ley del mínimo esfuerzo.
Y es que, ya nos va bien, ¿para qué complicarse? Lo cierto es que la ley del mínimo esfuerzo nos ha traído hasta aquí como especie, aunque quizá acabe con nosotros como civilización.
El hecho de, en cierto modo, abandonarse total o parcialmente a las respuestas de un modelo de lenguaje entraña otro riesgo que no tiene que ver con la precisión o con dejar de evaluar las respuestas que recibimos.
Se trata del sedentarismo cognitivo, que con el pretexto de la falta de tiempo, la urgencia o el «no se me da bien», nos lleva a evitar esfuerzos intelectuales que nos resultan en cierto modo incómodos o desafiantes, delegando tareas a la inteligencia artificial.
Recurrir en exceso e incluso constantemente a herramientas para evitar el esfuerzo mental lleva a un estancamiento en nuestro desarrollo intelectual y a una mayor dependencia de estas herramientas.
Piénsalo. No es lo mismo «abandonarse» a una calculadora o una hoja de cálculo, que terminar por no saber ni por dónde empezar a explicar un servicio, hacer un presupuesto o analizar un documento. ¿No crees?
Para trabajar en tándem con modelos de lenguaje (LLM) hay que tener en cuenta estos 2 grandes riesgos que corremos los usuarios:
- Nuestra credulidad derivada de la tendencia a humanizar cosas: no hay que creerse todo lo que nos diga.
- Sedentarismo cognitivo: Abandonarse a la ley del mínimo esfuerzo con la excusa de la prisa, la eficiencia o la incomodidad.
Las habilidades imprescindibles para trabajar con inteligencia artificial.
Llegados a este punto, tenemos una idea de cómo funciona un modelo de lenguaje y de los riesgos que entraña su uso. Lo siguiente es abordar qué conviene reforzar para formar tándem con una inteligencia artificial. Es decir, como humanos, ¿qué debemos hacer o reforzar?
Pensamiento crítico, imprescindible para trabajar con IA.
El pensamiento crítico aplicado al uso de la inteligencia artificial es no dar por buenas, fiables o certeras las respuestas que recibas de esta, aunque tampoco es darlas por malas, poco fiables, o erróneas.
En otros ámbitos, el pensamiento crítico se desarrolla sobre la base de unas premisas e incluso para situaciones concretas, de un procedimiento. Trabajando con inteligencia artificial esas premisas o métodos, llamémosles clásicos, no son del todo aplicables.
Aunque si tenemos en cuenta que trabajando con una inteligencia artificial, incluso nuestras preguntas pueden sesgar las respuestas que recibamos, el pensamiento crítico es más una actitud que una lista de comprobación o una «caja de herramientas» que nos permita contrastar la información que recibimos.
Así las cosas, y en un orden práctico, sin conocimiento, no hay pensamiento crítico.
Conocimiento, y criterio respecto de aquello que estás trabajando.
Una de las premisas o puntos de partida del pensamiento crítico es que damos por cierta una afirmación simplemente porque viene de alguien a quien consideramos experto en el tema.
Fijémonos, no se trata de dudar de todo y de todos, sino de considerar y sopesar. Entre humanos, confiamos en quien demuestra conocimiento y experiencia en una materia.
Esto, trasladado a trabajar con una inteligencia artificial, equivale a que el humano no puede llegar con las «manos vacías»: tu propio conocimiento sobre la materia que quieras trabajar es fundamental. En un tándem, los dos tienen que pedalear para avanzar.
Por tanto, disponer al menos de los conocimientos suficientes para detectar cuando una inteligencia artificial puede estar «patinando» permite que el pensamiento crítico sume y no resulte un estorbo. No se trata de convertirse en escépticos enfermizos, sino en críticos informados.
Tienes que saber sobre aquello que preguntas o quieres trabajar, para hacer buenos planteamientos y para utilizar las respuestas.
Potenciar lo que te hace humano: la perspicacia.
Si sabes de qué estás hablando y sopesas lo que te dicen, se te pueden ocurrir enfoques o planteamientos alternativos. Es lo que se conoce como perspicacia, agudeza, ingenio.
Y es que, por muy asombrosas que sean las capacidades de una inteligencia artificial, la chispa creativa para combinar ideas aparentemente inconexas, cuestionar lo establecido o replantear las cosas desde otro ángulo sigue siendo un rasgo esencialmente humano. Esa agudeza para ver más allá de lo que te dice el modelo y conectar puntos con tu experiencia y conocimiento es lo que, en definitiva, marca la diferencia.
Cuando no te limitas a dar por bueno por desconocimiento, falta de tiempo o pereza.
Cuando no te limitas a recibir información, sino que elaboras nuevas perspectivas, resuelves problemas y propones soluciones que quizá no se desprenden de una respuesta literal, estás siendo perspicaz.
Ningún algoritmo tiene la curiosidad, la intuición, ni tu capacidad de relacionar hechos. Tu «olfato» entrenado con la experiencia y la agudeza de tu ingenio es un rasgo esencialmente humano que siempre fue diferencial y hoy todavía lo es más.
¿Solo perspicacia? No solo eso, sino también sentido común, visión amplia, ética, y en definitiva todos los rasgos que nos hacen esencialmente humanos y que durante todavía mucho tiempo no podrán ser emulados en una abstracción matemática.
Premisas para usar la inteligencia artificial de forma general.
La inteligencia artificial, los modelos de lenguaje comerciales, están para usarlos. Hacerlo con criterio y conocimiento tiene muchas más ventajas que perjuicios. Hablemos sobre cómo usar y sacar partido a esta tecnología.
Saber preguntar también es una habilidad esencial al trabajar con IA.
La primera premisa para usar la inteligencia artificial es saber preguntar. Las buenas preguntas son más útiles incluso que las respuestas, esto funciona desde antes de Sócrates y la mayéutica. Las respuestas nos satisfacen, las preguntas nos llevan a seguir avanzando.
Preguntar a un modelo de lenguaje, a una inteligencia artificial, implica tres aspectos esenciales:
El primero es que para hacer buenas preguntas tienes que saber qué preguntar. Tienes que tener un cierto conocimiento sobre aquello que preguntas, de lo contrario recibirás respuestas genéricas, amplias, que seguramente no llegarán a resolver y aún lo contrario, quizá te lleguen a confundir.
El segundo aspecto es tener en cuenta la teoría de la mente, que es como se llama al hecho de que las personas tenemos la capacidad de predecir lo que otra persona está pensando. Una inteligencia artificial no tiene esa capacidad, no puede recabar toda la información del contexto y de quién se la pregunta, si no se le aporta. No dar por entendido.
El tercero es aprender a preguntar a un modelo de lenguaje, los conocidos como prompt. El prompting es la forma de plantear preguntas o instrucciones a una inteligencia artificial para que sus respuestas sean útiles y ajustadas al contexto. Esto también se puede aprender, hay un Curso de prompting avanzado en Boluda.com que te puede ayudar.
Ya ves, tus propios conocimientos son esenciales para trabajar con y sin inteligencia artificial. Nada nuevo, ¿verdad?.
Si haces buenas preguntas, sabes con quién estás «hablando» (teoría de la mente) y aprendes a hacer buenas preguntas a una inteligencia artificial, ya tienes gran parte del trabajo hecho.
Cuenta con la inteligencia artificial para sumar.
Segunda premisa: La inteligencia artificial es un refuerzo, no una muleta para nuestra pereza mental. Si solo la usamos para ahorrarnos el esfuerzo de pensar, acabaremos atascados en el sedentarismo cognitivo.
Sedentarismo cognitivo: inclinación a eludir esfuerzos mentales, confiando excesivamente en herramientas y rutinas que limitan nuestro aprendizaje.
Por eso, no se trata de que la inteligencia artificial haga el trabajo que te corresponde hacer como humano, la idea es que lo haga contigo, que la uses como una herramienta que te permita ser más rápido, manejar amplios volúmenes de información o explorar otras perspectivas. Te potencia, no te sustituye.
Ya conoces los riesgos de un mal uso y las habilidades que hay que potenciar, la clave está en integrar a la IA como un «asistente» como algo que se sube al tándem para pedalear, no para dirigir.
Mientras trabajes para humanos, potencia lo humano.
Tercera premisa: Si te diriges a humanos, te pagan humanos, y eres humano, potencia todo aquello que te diferencia de una máquina, de un software.
Piensa en cómo «te gusta» que cuando llamas a un sitio te conteste una locución y tengas que explicarle a ella lo que quieres…, hasta que consigues hablar con un humano.
No hace falta consultar a un psicólogo para advertir que los humanos preferimos tratar con otros humanos formados, competentes y diligentes. Basta con que se note, y para que se note, basta con que sea real.
Aplicar la inteligencia artificial en la contratación pública.
Conociendo los fundamentos de los modelos de lenguaje, las habilidades básicas que un humano debe tener, y las premisas para usarla sin meterse en líos, toca pensar en cómo insertarla en lo relacionado con la contratación pública.
Y la verdad es que las posibilidades son… infinitas. Es lo que se suele decir: tu imaginación es el límite.
Así que, como puedes, incluso debes, probar todo lo que se te ocurra, quizá resulte más útil hablar de qué no conviene hacer.
En primer lugar, te planteo: Considerando que la presentación de la oferta supone la aceptación incondicional del pliego, que el pliego es el contrato que luego firmarás, y que elaborar y presentar una oferta tiene un coste nada despreciable, ¿delegarías la lectura o resumen del pliego a una inteligencia artificial? Quizá te convenga leer el contrato que te proponen para considerar si presentas oferta, y todo lo que sigue, por supuesto. No delegues en una inteligencia artificial la lectura y resumen del pliego, hazlo tú que eres quien pone el dinero y asume las consecuencias.
Seguimos. ¿Redactar una oferta técnica es hacer un trabajo para el colegio? El esfuerzo de redactar una oferta técnica te permite saber dónde te metes, encontrar oportunidades y detectar problemas o costes. Tu agudeza y perspicacia ganan puntos. Que la inteligencia artificial te ayude está bien, que lo haga por ti no te conviene. No delegues en una inteligencia artificial la redacción de una oferta técnica, ayúdate de ella, si es que el contrato de verdad te interesa.
Más: En fase de ejecución, ¿qué crees que prefiere tu cliente (y da igual público o privado), que al otro lado haya una inteligencia artificial o un humano? Si usas la inteligencia artificial para ejecutar el contrato, que no se note, y para que no se note, mejor ocúpate tú, ayudado de una inteligencia artificial si es que resulta oportuno. Que no se te vaya la mano con la inteligencia artificial.
Por último: ¿Te gustaría que tus competidores dejen en manos de la inteligencia artificial todo, o gran parte, de lo concerniente a sus ofertas y contratos?
Este texto es una transcripción del episodio nº 223 del podcast ‘Contratación Pública’ que se puede escuchar en Spotify, iVoox, Apple Podcast y en cualquier reproductor de podcast.

Buenas prácticas ¿Qué hacen los veteranos para analizar pliegos?
"*" señala los campos obligatorios