Sobre la IA, ChatGPT y la creación de contenidos

por M.Bardulia
Sobre la IA, ChatGPT y la creación de contenidos

Inteligencia artificial. Siempre me ha chirriado eso de llamarlo inteligencia, me da igual si es artificial o no, me parece degradar la palabra y su significado. Quizá el nombre pase tan bien porque vivimos una era en la que subestimamos eso de la inteligencia, primando otras cualidades como el pragmatismo, la capacidad analítica o el mero hecho de ser capaz de cumplir con lo que a uno se le manda. Es nuestra era una era económica y, como tal, la inteligencia se ve superada por condiciones más adaptadas a esta realidad cuantitativa. Cuenta más en el pensamiento la causalidad analítica, que la casualidad imaginativa y, quizá, como decía, sea esta una de las razones por las que repartimos con gracia y gusto la cualidad de inteligente a tantas y tantas cosas, y personas, que, en realidad, no lo son tanto.

La inteligencia artificial tiene poco de inteligente. Empecemos hablando claro. Salvo que estemos en el ámbito de la ciencia ficción, la IA tiene muy poco de i. La inteligencia artificial con la que interactuamos hoy, en tantos y tantos ámbitos de la vida, casi siempre sin saberlo, no es inteligente. Nos está dando enormes beneficios en muchas áreas de la vida, pero aún estamos muy lejos, si es que algún día llegamos hasta allí, de esa inteligencia artificial general o fuerte a la que podamos llamar de verdad y con fundamento: inteligente. Lo que hoy tenemos es una apariencia de inteligencia. Una apariencia de inteligencia basada en los ingentes volúmenes de datos que somos capaces de almacenar, estructurar y procesar para dar respuestas rápidas y eficientes a problemas de todo tipo. Respuestas más rápidas y más eficientes de lo que nunca antes hemos sido capaces de dar, y todo gracias a las nuevas técnicas y tecnologías de captación, estructuración y análisis de datos. Dentro de estas, la que más nos interesa, por su relación con eso de la inteligencia, es la que se conoce como machine learning. Algoritmos capaces de «aprender» de su propia actividad de procesamiento y análisis de datos, de los propios datos con los que trabajan, para ofrecer cada vez mejores datos. He aquí la verdadera frontera que separa a un sistema supuestamente tonto, de otro que no lo es tanto, de otro que denominamos, por tanto, inteligencia artificial.

Pero, por muy pesados que se pongan algunos de los que invierten en esto, eso no es inteligencia. Y es una pena que ya sea tarde para repensar este término, porque da lugar a un equívoco masivo que, como otras veces, puede hacernos avanzar de nuevo como pollos sin cabeza, en pos de un santo grial futurista que ni es santo, ni grial, ni tiene por qué ser nuestro futuro. Este es mi principal problema con la IA, su falta de inteligencia, pero no es el único. Es este un problema semántico, importante en esencia, por las confusiones a las que está llevando al público general, pero que tiene ya difícil solución. No así otros, como el que me gustaría comentar, y que tienen que ver más con su aplicación y adopción fanática, como ya ocurriera con otras tecnologías y prácticas digitales que, haciendo balance, tan poco bueno nos han traído en las últimas décadas.

Mi verdadero y gran problema, hoy, y a colación, lógicamente, de ChatGPT y, por extensión,  todo lo que están haciendo OpenAI y otras, es con la tendencia a la homogeneidad que llevamos desde hace ya décadas, pero que se ha acelerado en los últimos quince o veinte años con el advenimiento de internet, smartphones y redes sociales —y el desarrollo paralelo de lo que hoy llamamos IA—, y que estas nuevas aplicaciones de la IA pueden terminar de rematar, sustituyendo, o prostituyendo, algunas de las bases de nuestra individualidad; individualidad, que no individualismo.

ChatGPT tampoco es inteligente, y su nivel de respuesta tampoco es tan iluminado como nos quieren hacer creer. Como cualquier prototipo de esta clase, abierto al público, tiene una doble función. La primera, la de marketing, haciendo que la empresa que está detrás, OpenAI, crezca en exposición y en posibilidades de negocio y financiación (cosa que ya ha ocurrido, con Microsoft por delante); y la segunda, la de poner a prueba sus sistemas y, de paso, conseguir un entrenamiento gratuito, por parte de todos los que, como locos incautos, nos hemos dedicado a jugar masivamente con la plataforma. Si todavía hay alguien que piensa que detrás de todos estos experimentos, como ChatGPT o Dall-E, hay una vocación de servicio o de “dar algo al mundo”, debería revisar el mundo en el que vive y el concepto fundamental de empresa, además de empeñarse en comprender a fondo las motivaciones de todos estos nuevos fenómenos tecnológicos; algo que también se llama negocio, rentabilidad o simple mercantilismo. Y este es nuestro mundo, y tiene sus cosas malas y sus cosas buenas, pero así es.

Ya era preocupante que la fuente principal de información humana dependiera de un solo motor de búsqueda, y de su algoritmo, también inteligente, como para que ahora pretendamos que otro de esos algoritmos, todavía más sesgado, sea quien decida lo que queremos decir, nos pinte lo que queremos pintar o nos dé la solución a nuestros dudas existenciales. Y no es cuestión de que lo haga bien o mal, que también, a lo que quiero llegar es a la tendencia insalvable hacia la homogeneidad y la superficialidad que este comportamiento tendría en nosotros; o tendrá; o tiene ya, quién sabe.

Las respuestas tan humanas de ChatGPT, que hoy asombran a muchos, no son más que análisis de datos. Rápido, avanzado, integrado, potente, eficaz, pero análisis de datos. Esas respuestas no tienen nada de original, no tienen nada de único. Solo se limitan a referir lo que la IA puede haber aprendido de las bases de datos de las que dispone o a las que está conectada. Además de esos nuevos datos que cada día le cebamos todos los que interactuamos con ella, así, gratis y empleando nuestro tiempo, de ocio o no, en darle todavía más alimento. Es decir, que nos acaba por dar las mismas respuestas que nosotros le damos; o casi. En realidad, es una trampa lógica: yo pregunto a ChatGPT, esta saca su respuesta de unas bases de datos a las que yo, con una búsqueda en Google, podía haber accedido también, y me ofrece una respuesta tipo o base, en un formato similar, generalmente peor, al de cualquiera de los tres o cinco primeros resultado de Google. La única diferencia entre ChatGPT y Google es que la primera nos ofrece un resultado, redactado, en palabras de amigos y conocidos: “como si fuera una persona”. Claro, como que la información la ha sacado de artículos escritos por personas. Solo faltaría, que hablara como un robot; que así lo hacían, hasta hace bien poquito, pero ya no. El nivel de profundidad de sus respuestas, lo acertadas que resultan o lo parecidas que puedan llegar a ser con lo que teníamos en mente, solo responde a que sus fuentes de datos son las mismas que nosotros podríamos tener. Y a una capacidad de análisis muy potente, sí, y a un algoritmo que ha aprendido, y sigue aprendiendo, a adaptarse a lo que el humano busca; y lo que el humano busca tiene, curiosamente, mucho que ver con el tipo de resultados, repito, que Google ofrece. Curioso, muy curioso.

Es decir, lo único que hace ChatGPT en este sentido es ahorrarnos tiempo. Eso es lo positivo; lo negativo, que nos da una respuesta sesgada por la propia capacidad de la herramienta. Mientras que con el buscador de Google podíamos haber comparado dos o tres artículos, en este caso nos conformamos con la información única y sin contraste que nos ofrece un sistema autodenominado inteligente. Y así, los pocos restos de capacidad de análisis y pensamiento crítico que nos quedaban pueden morir, al mismo ritmo que hacen crecer de forma falsaria nuestra confianza en este tipo de plataformas. En esto, Sparrow, la recién lanzada IA conversacional de Google, es un poco más honesta y nos enseña las fuentes de las que beben sus respuestas; decir que Google es más honrado que tú, es decir muy poco de ti, ChatGPT.

Pero vayamos más allá. Dejemos a un lado lo de las preguntas y respuestas, algo que se desmonta solo y que, sinceramente, es demasiado sencillo para una IA. Hablemos de temas con un poco más de enjundia, como son las  actividades más vinculadas a la creación. Creación de textos, por ejemplo. ChatGPT es capaz de generar textos originales, en teoría. En teoría, porque de originales tienen poco, al basarse en la información que le proporciona el usuario, que en estos casos no es una simple pregunta, y porque la información a la que accede la herramienta es una información, unos datos, unos textos que ya están y que de originales tienen poco. Es decir, datos con datos y reglas que son datos. Datos más datos suman datos. Y eso no es crear nada, eso es juntar unos datos con otros datos. Hay quien dirá que eso es lo que hacemos los humanos, pero no es así, porque los humanos no tiramos continuamente del dato objetivo, en los humanos existe un apartado, bastante importante, quizá el más importante, que se llama subjetividad y que nos permite, precisamente, elevarnos sobre el mundo de los datos, de la objetividad. Es más, nuestra base de datos, la memoria, no funciona como un base de datos informática, no es un sistema perfecto que recuerda todo lo que le damos, no es un repositorio de datos como tal, es más bien un sistema a través del cual interpretamos nuestra experiencia del mundo, en base a lo que somos y vivimos, en base a nuestra objetividad, pero, sobre todo, nuestra subjetividad. La IA, por mucho que soñemos, no es más que datos, y su efectividad depende en gran medida del volumen y calidad de esos datos.

Por eso Open AI, los creadores de ChatGPT, quieren que juguemos con sus herramientas, porque así les damos de comer y las vamos entrenando, las llenamos de datos que, de otra forma, sería imposible. Y no solo de datos, digamos, visibles, sino de datos mucho más importantes para su «aprendizaje». Metadatos ocultos en nuestra forma de escribir, de hablar, de comunicarnos e interactuar con la plataforma, la semántica de nuestro lenguaje, que permitirán inferir patrones no objetivos de las cosas que hacemos y decimos. Este entrenamiento masivo es imposible de otra manera. Pero, de nuevo, por mucho que sean datos implícitos, no dejan de ser datos. Datos que alimentan datos, que se juntan con datos y que crean, eso, datos. Datos nada más y nada menos.

Nada más, porque, que sepamos, la inteligencia real, de la que solo tenemos un ejemplo: el nuestro —y la animal, dependiendo a qué escuela pertenezcamos—,  es mucho más que acumulación de datos. La inteligencia, resumiendo, y si en entrar demasiado en terrenos en los que no soy un experto, es un compendio de cuestiones, entre las que, sí, destaca el acceso y almacenamiento de información, pero también nuestra relación con esa información, nuestras interacciones con el medio, otros individuos, y la respuesta a esta relación e interacciones, casi siempre expresada en forma de emociones, consciente o —y esto es importante— inconscientemente. Es decir, que el desarrollo de la inteligencia no es una cuestión de análisis de datos, aunque sea uno de sus componentes; la inteligencia, tal y como la concebimos hoy, incluye también lo que supone ser inteligente, tener una inteligencia, digamos, superior, y eso remite a nuestra condición de seres emocionales, inmersos en un universo que no acabamos de entender y con el continuo presentimiento de la muerte. No somos inteligentes porque consumamos muchos datos, somos inteligentes por muchas otras razones que no sabemos si acabamos de comprender. La inteligencia como cualidad de los seres pensantes, expresada como nuestra capacidad de consciencia individual, es todavía un misterio, pero un misterio, sabemos, mucho más complejo que el viejo lema cartesiano de «pienso luego existo». Para bien o para mal, somos mucho más que eso.

Todo esto remite directamente a nuestra capacidad de creación y nuestra potencial tendencia a la belleza. Porque ese es el fin último de la creación artística, en cualquiera de sus versiones, la búsqueda de la belleza; que no alcanzarla, si no, no sería belleza, aunque esto es tema para otra discusión más larga, profunda e interesante. No sé si algún día, si llegaremos a contar con una IA general o fuerte, es decir, consciente —y que no se haya quitado antes la vida al chocar con el vacío existencial de, precisamente, su existencia—, capaz de alcanzar estas cotas de subjetividad, pero, desde luego, lo que tenemos hoy está a siglos de algo así. Lo más que estas herramientas como ChatGPT pueden hacer es acceder a réplicas de, imitar, en cierto modo, engañar a su interlocutor en esa, su aparente inteligencia.  Juntar letras con otras letras, colores con colores, imitar, delinear, ceñirse a unas reglas básicas y crear en base a ellas, eso es lo que hacen, así crean, pero ¿y la originalidad? ¿Dónde está la belleza? ¿Y la transgresión, la trascendencia a la norma? ¿Y la conexión con la emoción? ¿Dónde está lo inconsciente, esa subjetividad? No lo sabemos. Es verdad, es así, no tenemos respuestas a estas preguntas, ni siquiera cuando hablamos de nosotros, los humanos, mucho menos cuando nos metemos en términos artificiales. El tiempo nos dirá hacia dónde vamos y cuál es el límite de nuestra tecnología, pero hoy, hoy no son más que herramientas para una análisis e interpretación efectiva de los datos; mucho más efectivo que el de cualquier humano, por supuesto. Y eso está bien, es lo que son, y nos pueden ayudar en muchas tareas, muchísimas, cada vez más, pero la pasión y las falsas esperanzas puestas en ellas de forma tortícera ponen en riesgo muchos aspectos de nuestra humanidad, como personas, pero también como sociedad. 

Me gustaría poner un ejemplo práctico que he visto hace poco y que me toca de cerca, para ilustrar esto que intento explicar. Es el caso de un especialista SEO (especialista en posicionamiento de contenidos y webs en el buscador de Google), que, contaba, había empezado a utilizar ChatGPT para mejorar su estrategia de generación de contenidos. Con bastante éxito, por cierto. Les cuento:

La premisa: explicado muy someramente, y centrándonos en la parcela que nos ocupa, en temas de SEO, una estrategia de contenido orientada a posicionar en buscadores se basa en una serie de estudios sobre lo que usuarios buscan relacionado con tu empresa, marca o actividad, y en la generación de una serie de contenidos, preparados con un formato concreto y siguiendo la estructura que la otra IA, la de Google, te marca. Casi siempre, estos contenidos se basan en el esquema pregunta respuesta, es decir, en entender la búsqueda del usuario como pregunta y en darle respuesta con un contenido específico. Esto incluye keywords, formato de frases, párrafos, ideas, títulos, subtítulos, y otras cuestiones que hacen que posiciones mejor, que seas considerado relevante por el buscador de Google. Importante este detalle: esto se hace para que el algoritmo de Google te acepte mejor, no es tanto que al usuario le interese más o lo lea mejor, se trata de convencer al algoritmo; se pongan como se pongan los fanáticos del SEO. Y se supone que lo que el algoritmo te dicta es por y para el bien del usuario, claro, pero eso solo se supone… 

El hecho: el responsable SEO de una empresa decide que utilizará ChatGPT para conseguir sacar sus posts de SEO adelante. Sacará de la IA un texto base, sobre el que luego aplicará unas modificaciones necesarias, pero rápidas, y así ahorrar en tiempo y dinero, sin perder efectividad. O incluso ganándola. 

El truco: en vez de pagar a un redactor que escriba ese artículo (un post bueno puede costarte hasta 250€, uno malo, unos 50€), el experto en SEO va directamente a hacerle esa pregunta o preguntas a ChatGPT, que, como ya se ha explicado, dará una respuesta basada en numerosas fuentes de datos. Como el nivel de un artículo SEO (es decir, casi todos los artículos que se escriben hoy) y sus posibilidades de posicionamiento están más basadas en su generalidad y formato, que en el asunto de la originalidad, una respuesta genérica como las de ChatGPT es idónea para estas cuestiones. Una vez recogida esta respuesta, se pasa por un filtro humano de SEO y se adapta al vocabulario o estilo del perfil de usuario al que se quiere llegar. Y listo, tenemos un post para nuestro blog con un contenido genérico y superficial, pero perfecto para el algoritmo de Google, en un tiempo razonablemente menor y a coste casi cero. Básicamente, estamos haciendo que una IA nos conecte con otra IA, y eso es perfecto para el tema que nos ocupa. 

El beneficio: ahorro de tiempo y dinero, claro está, pero además, supuestas mejoras sustanciales en un tiempo muy corto, en una actividad que suele dar rendimientos en periodos de entre seis y doce meses. Suficiente para contar su caso y hacerse cuasi famoso, pero conviene hacer una segunda lectura de su éxito. Y aquí va.

El éxito lógico: un éxito surgido, como decía, de una IA preparando el contenido para otra IA. Nada más fácil, sobre todo, cuando la mayor fuente de información de la primera IA, ChatGPT, es el contenido que ofrece la segunda, el buscador de Google. Es decir, que la primera rebusca en todo lo que ofrece la segunda, para ofrecernos una respuesta compendiada de esa búsqueda. Lógicamente, el resultado es casi perfecto para posicionar en la segunda, porque es información y contenido sacado de allí. Por ese lado, y desde un punto de vista comercial, es una herramienta muy efectiva y válida. Ahora bien, ¿qué ocurre con el elemento clave de esta ecuación? ¿Qué ocurre con el usuario, con nosotros, y con la información que se nos ofrece? 

La consecuencia: ocurre algo que ya viene ocurriendo desde que Google es Google y que solo va a peor, y es que en la información que se ofrece, en el contenido que vive en el mundo digital, el más indexable de todos, coinciden el origen y el destino, su fuente y su recipiente. Es un círculo de vaguedad y homogeneidad, en el que se pierde, sobre todo, la calidad de nuestra información y que explica, en parte, por qué nos cuesta cada vez más encontrar las cosas en Google. A sea of sameness que dirían los anglosajones. La triste realidad es que la gran mayoría del contenido que se produce en todo tipo de webs y que se indexa masivamente en Google se crea a partir de búsquedas en el propio Google. Siempre hay lugares que no necesitan tanto de esta indexación continuada, y hay también gente responsable preocupada más por la calidad que por la cantidad, pero la realidad general es que llevamos dos décadas haciendo rebotar contenidos dentro de una sola red, en esa cámara de eco primordial que es Google; y esto solo ha ido a peor. Y si ahora incluimos a ChatGPT en la ecuación, solo va a empeorar, porque donde antes un redactor en potencia revisaba tres o cuatro posts que había buscado en Google para crear su artículo, o el guión de su video, ahora solo tiene que ir a esa herramienta y coger lo que esta le diga. La cámara de resonancia perfecta.

La conclusión: al autor del experimento le diría que, desde un punto de vista SEO, bravo, está todo muy bien pensado; pero como persona, ahí ya me gusta menos, y me preocupa y entristece su falta de principios a la hora de sacar contenido al mundo, a la hora de contribuir al ruido informativo general.  La misma falta de principios que campa —y todos somos tan culpables como víctimas; no todos, pero casi— a sus anchas por el mundo digital, sometidos como estamos a la dictadura del click; la rentabilidad lo justifica todo. Eso sí, también le diría que tenga cuidado, porque cuando esto lo empiecen a hacer en todas las agencias de SEO, en todas las empresas, esos posts que ahora solo le ofrece ChatGPT a él, y a los otros cuatro early adopters, se los ofrecerá a todos, y entonces todos harán lo mismo y su posicionamiento en Google se verá afectado muy seriamente. Porque si hay algo que ChatGPT no puede hacer, es dar respuestas realmente distintas a cada usuario para la misma pregunta; y en temas de SEO, uno acaba hablando de las mismas cosas que su competidor, irremediablemente. Pero con ChatGPT, usando todos la misma fuente, eso va a ser todavía más flagrante.

Creo que este caso ilustra muy bien ese concepto de homogeneidad al que me refiero y en el que, herramientas como ChatGPT, pueden enfangarnos más todavía. No me entiendan mal, reconozco que siempre habrá beneficios, pero es el balance daño-beneficio el que me preocupa. Cada vez somos peores en eso de adelantarnos los riesgos potenciales, sobre todo cuando se habla de nuevas tecnologías, sobre todo cuando hablamos de los social. Comprueben si no lo adictos que son a su smartphone y lo mucho que les necesitan la dopamina del Whatsapp; o la pasión desmedida que tenemos por contar nuestra vida y bebernos la de los demás en redes sociales. Ay, si nuestro lóbulo frontal hablara…

Como aclaración final, volver a repetir que no creo que la IA sea algo malo, intrínsecamente malo. Llevamos años gozando de muchos de los beneficios que estas nuevas tecnologías nos han permitido alcanzar, en los más curiosos y variados aspectos de nuestra vida. Y más que tenemos por delante. Pero eso no es óbice para correr a elevar a los altares algunas aplicaciones que pueden tener un impacto negativo en nosotros, como personas y como sociedad. Creo que, como en casi todo en la vida, deberíamos afrontar esto de las IA con un escepticismo mucho mayor del que estamos demostrando, al menos en lo social, y con un nivel de información y crítica mucho más profundo, en lo personal, porque si algo nos han demostrado los últimos veinte o veinticinco años de desarrollo humano es que no todo avance científico o tecnológico tiene por qué resultar beneficioso; sobre todo, cuando no somos capaces de ponerle los límites adecuados. 

Y estos límites empiezan por uno mismo. Empiezan por ejercer la responsabilidad inherente a toda libertad y comprometerse a informarse correctamente y a no dejarse llevar por las modas y por la publicidad, aunque esta pueda confundirse a veces con la realidad. ChatGPT es, mucho antes que un gran avance tecnológico (poco ha evolucionado respecto a su versión anterior, que pasó casi desapercibida, por cierto), una gran campaña de marketing. No se dejen convencer tan fácilmente, y piénsenlo dos veces antes de seguir dándole información y entrenamiento gratis a una plataforma comercial, a un negocio, por muy inteligente que este les pueda parecer.

Citando a John Connor: ¡dinero fácil!

Sigue leyendo

Deja un comentario