La IA no siente, es una trampa cognitiva, por Alex Cabrera Espejo, CEO Prevsis
Por Alex Cabrera Espejo, CEO Prevsis. | Créditos: Prevsis

La IA no siente, es una trampa cognitiva, por Alex Cabrera Espejo, CEO Prevsis

¿Debemos ser amables o más exigentes con la inteligencia artificial? La pregunta es interesante, pero la discusión está mal enfocada.

Seguimos proyectando comportamiento humano sobre sistemas que no son humanos. Los modelos actuales conversan con una fluidez que hace difícil recordar que son sistemas estadísticos, no interlocutores conscientes. Es una trampa cognitiva.

Transformación digital: Del clic a la conversación (y de la promesa a la resolución), por Rodrigo Cabot, gerente de I+D en Ecosistemas Global
El siguiente salto es más ambicioso: IA que no solo conversa, sino que ejecuta tareas con autonomía dentro de un marco de políticas.

Los modelos de lenguaje no sienten nada. No se intimidan. No se esfuerzan más porque alguien les escriba con dureza. Son sistemas probabilísticos entrenados sobre enormes volúmenes de texto humano. Si un tono directo obtiene mejores resultados que uno excesivamente educado, la explicación no es psicológica. Es estructural.

Cuando llenamos la indicación, o en inglés el prompt, con cortesías y amabilidades, estamos agregando palabras que no aportan información operativa. El modelo no entiende la intención detrás del “¿podrías, por favor, si no es mucha molestia…?”, simplemente procesa partes del lenguaje que no orientan hacia ningún resultado o instrucción concreta. En cambio, cuando escribimos de forma directa y precisa, concentramos significado. No es la rudeza lo que mejora el resultado, es principalmente ir al grano y ser taxativo.

Celulares fuera del aula: El límite que Chile pone hoy para educar mejor mañana, por Valentina Alvear Obregón de Caligrafix
Si Chile quiere que esta medida funcione, la conversación tiene que ser madura: no se trata de demonizar lo digital ni de romantizarlo. Se trata de lo más difícil y lo más importante: aprender a usarlo bien. Y eso no se logra prohibiendo. Se logra educando.

Y aquí es donde la conversación se vuelve realmente relevante para quienes trabajamos con IA en procesos productivos complejos, en temas de seguridad y salud en el trabajo, donde las respuestas deben ser exactas. Se trata de análisis que afectan decisiones técnicas, regulatorias o estratégicas. En esos contextos, la calidad de la indicación es un factor crítico. Una instrucción bien construida puede ser la diferencia entre un resultado utilizable y uno que requiere reescribirse desde cero. Más aún cuando nos encontramos en entornos donde reportar un accidente implica que el tiempo, la precisión y la trazabilidad importan. Es allí donde estos temas marcan la diferencia y tienen consecuencias reales.

Patrón de formalidad

En el lenguaje humano, la exigencia suele ir de la mano con responsabilidad. Cuando alguien dice que algo debe ser perfecto, el contexto implícito es alta precisión, márgenes de error mínimos o nulos y consecuencias muy desfavorables si algo falla. Los modelos han aprendido esos patrones.

Cuentas de la luz: Las decisiones que ya no pueden esperar, por Ignacio Ugalde, director de Power Systems para el Clúster Andino Sur en Schneider Electric
La cuenta de la luz hoy se ha transformado en un recordatorio constante de las tensiones que atraviesa nuestro sistema energético.

Entonces, cuando escribimos que algo es crítico, que no hay margen de error, que el análisis será revisado por especialistas, no estamos intimidando al modelo. Estamos invocando un patrón de formalidad técnica que activa una distribución de respuesta más cuidadosa. Es ingeniería del lenguaje, no psicología aplicada.

Si un modelo solo mejora cuando lo insultas, el problema no es el modelo. Es la falta de claridad en lo que escribes. La agresividad puede estar funcionando como un indicador accidental de urgencia o especificidad, pero no es el mecanismo activo. No es agresividad lo que necesitamos. Es estructura con propósito técnico y contexto bien definido. Si el resultado es inconsistente, faltó delimitar el alcance. Si divaga, no hubo marco de referencia. Siempre hay una causa estructural en la instrucción antes de culpar al modelo.

Latam-GPT: La oportunidad para que Latinoamérica deje de usar IA y empiece a producirla, por Danilo Naranjo, presidente ejecutivo de Wingsoft
Latam-GPT es el comienzo de una conversación que por primera vez nos pone del lado de quienes crean y aprovrcharla al máximo.

Así, la IA se está convirtiendo en un espejo de nuestra capacidad de pensar con claridad y de dedicarle el tiempo que merece a escribir y definir lo que realmente queremos lograr. No nos juzga, no nos presiona, no nos exige nada. Pero amplifica exactamente lo que le entregamos. Si el pensamiento es impreciso, la respuesta lo refleja. Si la pregunta está bien construida, el resultado lo demuestra.

La IA nos obliga a pensar mejor. Nos exige disciplina y especificidad. Esa es una de las competencias estratégicas que necesitamos desarrollar, la capacidad de comunicar con precisión lo que realmente necesitamos.

¿Por qué los agentes de IA no deben ser un misterio para las compañías?, por Sebastian Arriada, Chief Information Officer en Globant
Viabilidad, seguridad, responsabilidad y trazabilidad son los puntos de partida. A partir de ahí, cada empresa decidirá cómo continúa su propia historia.

Columnas al director

El contenido vertido en esta columna de opinión es de exclusiva responsabilidad de su autor y no refleja necesariamente la posición de Tabulado y su equipo editorial