Es a finales de la década de los años cincuenta cuando se producen los primeros estudios y desarrollos en Inteligencia artificial. Uno de sus primeros resultados fue el desarrollo de «Dendral», un sistema creado en 1966 por un grupo de investigadores de la Universidad de Stanford para identificar compuestos químicos. Más adelante, en los setenta, la Universidad de Northwestern comenzó a utilizarla para construir programas que pudieran jugar al ajedrez con humanos. Unos desarrollos que alcanzaron gran impacto mediático en 1997 cuando Garry Kasparov (campeón del mundo de ajedrez) fue derrotado por «Deep Blue», una máquina construida por IBM.

El gran salto en la Inteligencia Artificial se dio en el momento en el que se dejó de enseñar a las máquinas cómo debían jugar al ajedrez o traducir un texto o diseñar a otras máquina, y se les dejó que ellas mismas lo aprendieran a partir del examen de millones de ejemplos resueltos. El problema ahora es que tenemos máquinas que realizan tareas muy sofisticadas como traducir un texto, reconocen un rostro humano o analizar una ecografía, pero no sabemos concretamente cómo lo hacen.

Más aún, los sistemas han ido mejorando hasta tal punto que serán las propias máquinas las que se entrenen entre ellas. Serán, en muchos sentidos, más eficaces que los humanos (ya lo son en campos concretos); y los modelos de aprendizaje, capaces de manejar más y más parámetros cada vez, auguran que esto es solo el comienzo.

Los países que se encuentran a la cabeza en el desarrollo de la «Inteligencia artificial» son Estados Unidos con empresas como OpenAI, Alphabet, Meta y Microsoft y China, algo menos desarrollada, con Baidu, Huawei e Inspur.

Campos de desarrollo y de aplicación:

  • La conducción autónoma: para este aprendizaje se han llegado a utilizar videojuegos en los que intervienen automóviles para que el sistema aprenda a reaccionar en situaciones normales o de peligro.
  • La fotografía computacional: muchos teléfonos móviles han optado por incluir sistemas de «Inteligencia artificial» para el tratamiento de sus imágenes en vez de recurrir a sistemas ópticos mejores. Esto supone que cada vez resulta más difícil conseguir imágenes reales de los objetos (se procesan y se sustituyen por otras mucho más atractivas e impactantes, pero poco reales).
  • En el arte: generando cuadros, poesías, relatos, música,… -> Con las consiguientes discusiones sobre quién o quienes deben ser los destinatarios de los derechos de autor generados por dichas obras. Generadores de imágenes: Dall-e 2, Stable Diffusion, Imagen, Midjourney v 5.
  • En la agricultura y la ganadería: analizando las necesidades y el estado de los cultivos o de los animales.
  • En la meteorología: con los sistemas de predicción basados en modelos.
  • En la medicina: con el análisis de imágenes de escáneres o de resonancias que la «Inteligencia artificial» puede analizar con resultados más eficientes que los que pueden obtener los profesionales.
  • En sistemas de reconocimiento facial: en aeropuertos, o en las calles, por parte de la policía.
  • En el procesamiento de imágenes y de su contexto: los sistemas actuales no se conforman con identificar qué es lo que aparece en la imagen, ahora se quiere determinar cuál es el contexto en el que esos elementos se encuentran, dotándolos de sentido dentro de dicho contexto.
  • En el procesamiento de ingentes cantidades de publicaciones científicas o legales. Los científicos o los abogados o juristas no pueden leer todo lo que se publica y el empleo de una «Inteligencia artificial» facilita su trabajo pues pueden hacerles consultas concretas para que los sistemas busquen toda la información publicada al respecto, la resuman y la ofrezcan como un resultado manejable por el humano.
  • Como asistentes de programación: GitHub Copilot. Hay quienes, sin conocimientos de programación han sido capaces de crear juegos antiguos (rudimentarios) con la ayuda de estas herramientas.
  • Como apoyo a los buscadores de Internet: Perplexity ai, Bing, Google, DuckDuck Go y, últimamente, Firefox.
  • Como asistentes de programas de ofimática: Microsoft ha anunciado la incorporación de un sistema de IA a Office 365 para la creación de documentos, hojas de cálculo, correos, etc.
  • En la traducción de un idioma a otro: El gran avance de la traducción se ha llevado a cabo cuando los sistemas de IA han sido capaces de comprender el contexto y de interpretar el lenguaje natural creando textos gramaticalmente impecables, aunque cuestionables -a veces- en cuanto a su contenido (dado los sesgos que contienen los materiales utilizados para entrenar a estas IA).
  • En la predicción de la estructura de las proteínas: El conocimiento de las proteínas es esencial para conocer el funcionamiento de los organismos y para abordar las enfermedades y la creación de medicamentos. Cuando se descubrió que lo importante no era sólo su composición química sino su estructura tridimensional, comenzó un lento y tortuoso proceso para descubrirla, una a una, proteína a proteína. Antes de la aparición de la «Inteligencia artificial» en este campo se celebraban concursos internacionales para que, mediante sistemas muy laboriosos y complejos, los laboratorios de todo el mundo compitieran por descubrir la estructura tridimensional de una proteína propuesta. Sin embargo, un día a alguien se le ocurrió que esto lo podía hacer un sistema de «Inteligencia artificial» y el resultado fue demoledor (para los humanos): dejó de tener sentido dicha competición. Es el objetivo del sistema AlphaFold de Google. Asimismo, otros investigadores están trabajando en sistemas de aprendizaje profundo que permiten la creación de proteínas nuevas, diseñadas a partir de sistemas abiertos de IA como RoseTTAFold, con los cuales crear proteínas que no existen en la naturaleza y que pueden entrenar a nuestro sistema inmunológico para atacar, por ejemplo, a los virus causantes de la gripe o del SARS-COVID-19 (es decir, «vacunas»), o ser capaces de acoplarse con las proteínas de las células cancerosas para hacerlas vulnerables o crear proteínas capaces de catalizar las reacciones químicas que den lugar a la descomposición de sustancias tóxicas (por ejemplo, los plásticos). Tras el diseño de la proteína, se crea una secuencia de ADN que se inserta en una bacteria que es la que lleva a cabo su producción conforme al diseño establecido. Estamos ante un campo de estudio que va a dar lugar a avances inimaginables hasta ahora.
  • En la creación de ordenadores conversacionales: ChatGPT (de OpenAI) se convirtió en horas en un fenómenos en Internet en su versión GPT-3.5 (la nueva versión GPT-4 se acaba de presentar en marzo de 2023 y se calcula que tiene una potencia 500 veces superior al de su antecesora). Su base es un modelo de lenguaje autorregresivo que desde hace tiempo se licencia y está presente en una gran cantidad de aplicaciones.
  • Con la creación de «prompts«: pequeñas aplicaciones creadas por desarrolladores que, conectadas a los sistemas de IA adecuados, permiten realizar ciertas tareas de manera más sencilla: creación de imágenes a partir de texto, de cartas de correspondencia a clientes, correos, entradas de blog, etc., etc.
  • En el campo militar: la intervención de la «Inteligencia Artificial» es considerada como una revolución a la altura de lo que supuso la pólvora o la aviación. Sus desarrollos se centran en el manejo de drones autónomos capaces de provocar masacres sin poner en peligro bajas propias; asimismo, se emplea para el reconocimiento y detección del enemigo, o de objetivos, en fotografías, en imágenes de satélite o en vivo (a veces fallando y provocando falsos positivos y muertes por fuego amigo); también colabora en la predicción del comportamiento del enemigo y en el manejo de grandes bases de datos y en la toma de decisiones; se ha mostrado igualmente útil en la gestión logística (estableciendo las rutas más eficientes para el aprovisionamiento o los movimientos de tropas y de armamento); asimismo, es utilizada para la simulación de batallas y de estrategias de combate.
    • El siguiente paso es avanzar en la creación de vehículos armados, autónomos y gestionados por inteligencia artificial que sustituirán a los soldados, haciendo menos necesario contar con un enorme ejército convencional que equivale a grandes movimientos de personas y problemas logísticos y de intendencia.
    • Actualmente se trabaja en la fabricación y mejora de sistemas automáticos dirigidos por «Inteligencia Artificial» que patrullan y bombardean de manera autónoma (sin intervención humana); algo parecido a lo que hacen los sistemas antimisiles encargados de proteger el espacio aéreo mediante el lanzamiento autónomo de misiles tierra-aire para hacer explotar a los misiles enemigos antes de alcanzar su objetivo.
    • En la guerra de Ucrania ha sido empleada para identificar tanques o artillería rusa, mediante el reconocimiento de imágenes de satélite combinado con la información que los militares ofrecen inadvertidamente a través de sus redes sociales.
    • Como Rusia ha reconocido: quien domine la «Inteligencia artificial» aplicada al ámbito militar dominará el mundo. En este sentido EEUU ha cambiado su actitud reacia a este tipo de desarrollos convencidos de su superioridad militar demostrada hasta ahora; sin embargo, se ha dado cuenta de los avances de los científicos chinos en este campo y ha visto la necesidad de unirse a esta nueva carrera militar para «matar más y mejor».

Los sistemas conversacionales del tipo ChatGPT

Tienen su base en un análisis estadístico del comportamiento del lenguaje natural. Con ello se logra una aproximación matemática que es la que sirve para que después, estos sistemas entrenados, puedan construir asombrosas estructuras sintácticas que nos dejan totalmente sorprendidos. Realmente las máquinas construyen escritos por pura «fuerza bruta», pues su análisis de gigantescas cantidades de escritos les ha permitido determinar el grado de probabilidad que tiene una palabra de ir detrás de otra dentro de un determinado contexto; y esa es la gran «magia» del asunto: haber incluido millones y millones de parámetros que el sistema es capaz de gestionar. Con un sistema de «aprendizaje profundo» el sistema ha sido capaz de crear un modelo cuyos resultados pueden ser: una noticia, una respuesta comercial, un artículo, un chiste, un sistema de atención al cliente,… o cualquier otro.

«Ayer vi que una revista de ciencia ficción había cerrado su buzón de manuscritos de ficción porque estaba inundado de obras generadas por ChatGPT. ¿Hemos pedido este tipo de mundo? Queremos algo que escriba nuevos libros al azar basados en combinaciones del conjunto de los libros que ya existen? No lo creo.»

Timnit gebru – Revista eldiario.es -inteligencia artificial. riesgos, verdades y mentiras, pág. 16

Educación

La posibilidad de aplicar estos sistemas, por parte de los alumnos, ha supuesto un verdadero problema para la pedagogía actual que se divide entre quienes creen que se debe «educar con la ayuda de la Inteligencia Artificial» y los que proponen «educar para la era de la IA». Está claro que las herramientas clásicas de evaluación como los trabajos han quedado obsoletas con este tipo de sistemas.

  1. En «educar con la ayuda de la IA» se propone que estos sistemas sirvan como herramienta útil para una personalización individualizada del proceso de enseñanza-aprendizaje en el que sugerir actividades de refuerzo para las competencias no alcanzadas y de profundización para las conseguidas. Sería la sofisticación, un paso más, del proceso en la creación de las «máquinas de enseñar» en el que la IA evaluaría el trabajo del alumno (emitiendo la retroalimentación adecuada para cada caso y situación), proponiendo individualmente los pasos a seguir en el proceso formativo de cada alumno/a. Asimismo, tendría cabida en el campo de la tutoría y de la orientación académica y profesional.
  2. «Educar para la la era de la IA» es algo más amplio y complejo, con más preguntas que respuestas. ¿Qué debería saber y saber hacer con IA un alumno/a en cada nivel educativo? ¿Qué derechos debe conocer como ciudadano/a en el uso de estos sistemas? ¿Qué riesgos y amenazas supone el uso de la IA? ¿Quién es responsable de las decisiones adoptadas por una IA que afecte a personas? ¿Qué debe saber sobre la IA un profesional de cada campo profesional al que cada uno de los alumnos/as desee dedicarse?

Muchas incógnitas, algunas certezas

Ante lo desconocido solo podemos echar mano de aquellas cosas de las que estamos completamente seguros y con las que estamos profundamente comprometidos: los Derechos Humanos, los Objetivos de Desarrollo Sostenible, una democracia participativa de calidad, una educación obligatoria, pública y orientada al desarrollo integral de las personas y no a su ‘empleabilidad’ y valor de mercado, un sistema político que no privilegie a los más fuertes ignorando a quienes no resultan ‘rentables’ o productivos, un fuerte control de las grandes empresas tecnológicas, etc. Y necesitamos reflexión.
Si, como dijo Clemenceau, “la guerra es un asunto demasiado serio para dejarla en manos de los militares”; hoy, la IA es un tema demasiado importante para dejarlo en manos de las empresas informáticas. Los gobiernos deberían saberlo. El problema es si tienen los recursos y la convicción necesaria. Como educadores es necesario que conozcamos qué puede hacer, cómo lo hace y qué no puede hacer la IA. En 2011, Marc Andreessen escribió una frase que cada vez resulta más cierta: “El software se está comiendo el mundo”. Si el impacto político de los algoritmos que gobiernan las redes sociales no había sido ni comprendido, ni anticipado o previsto, esta vez tenemos que estar prevenidos. De hecho, existe una creciente conciencia sobre los problemas éticos, legales, sociales, políticos, económicos, educativos, etc., que puede causar una IA (des)gobernada por la maximización de beneficios empresariales. Y en educación tenemos nuestros propios problemas. Puede que hayamos perdido el miedo a que la IA sustituya a los profesores, pero a largo plazo seguramente redefinirá sus roles, el entorno docente/discente y las actividades de los estudiantes. ¿Puede imaginar el impacto, positivo y negativo, de un libro de texto ‘inteligente’? Algún autor de ciencia ficción sí que ha podido. Negarnos a su uso en las aulas no servirá de gran cosa, sólo a hurtar el derecho de la juventud a desarrollar las competencias necesarias, entre ellas una visión crítica, para vivir en un mundo tecnológicamente mucho más complejo que el que nosotros, sus profesores, conocimos. Es más, en educación, la nostalgia de un mundo antiguo, idealizado y falso, sólo nos dejará aún más fuera de juego.

Jordi Adell, Revista ElDiario.es, pág. 50-52

Límites y consecuencias:

La aplicación de la inteligencia artificial va a tener, por ejemplo, un efecto demoledor sobre el empleo. Se calcula que por cada tarea que desempeña desaparecen tres puestos de trabajo. Hasta ahora se suponía que dichos puestos tendrían que ver con los trabajadores menos cualificados; su desarrollo cada vez hacia formas más potentes parece romper también esta barrera: ahora se ve que van a ser los trabajadores cualificados los más afectados por la entrada de estos sistemas.

“La clave es que el salario ha sido la principal forma de redistribución de los beneficios a lo largo de la historia. Tradicionalmente los impuestos han supuesto menos del 20% del reparto, mientras que los salarios han sido el 60%. El problema es que ese porcentaje ha ido disminuyendo en los últimos 20 años y el salario tiene cada vez menos importancia”. (Adrián Todolí) […]

¿Pero qué pasa si ahora aparecen empresas que no contratan [porque sustituyen a los trabajadores por sistemas de IA]?

En este punto del debate es cuando aparecen soluciones innovadoras que no se han puesto en práctica a gran escala. El impuesto a los robots, el impuesto de sociedades ascendente para las empresas que empleen un menor número de trabajadores o la renta mínima universal. […] ya la propia Comisión Europea planteó en 2019 fórmulas para que el impuesto de sociedades descienda si das mucho empleo; pero aumente si no das trabajo. Si no hay sueldos, pagas más impuesto de sociedades”.

“Es cierto que ahora mismo parece una cuestión lejana –reconoce José Varela, del sindicato UGT–. Pero si no hacemos nada, lo que nos vamos a encontrar cuando queramos actuar es con miles y miles de personas que se han quedado sin trabajo y además carecen de las herramientas para atravesar los cambios de manera ordenada”.

carlos del castillo, Revista eldiario.es, pág. 56

Otra de sus amenazas tiene que ver con la pérdida de la privacidad. Estamos ante sistemas con una capacidad ingente de procesamiento de información de todo tipo de fuentes, con lo que podría obtener unos perfiles individuales de información mucho más completos que los que actualmente existen.

Una amenaza más es el sesgo de la información con la que es entrenada. En el fondo, la Inteligencia artificial sólo reproduce los esquemas informacionales con los que es entrenada, de ahí que adolezca de los mismos prejuicios racistas, xenófobos o machistas que podemos encontrar en la información de partida. Se impone una selección de dicha información o la incorporación de controles que eviten, en lo posible, dicha descompensación.

El problema de la explicabilidad. Es uno de los grandes problemas actuales que se derivan de ese carácter de «caja negra» que han adoptado los sistemas de Inteligencia Artificial incapaces de explicar la justificación de sus cálculos o decisiones para que puedan ser analizados, revisados y criticados o modificados.

Esta situación se hace más compleja por cuanto los sistemas no son estáticos sino que continúan entrenándose de manera constante, de lo que podría deducirse que resulta inadecuado obtener una imagen fija (de por sí obsoleta) para evaluar un sistema en continua evolución y cambio.

Me gustaría que fuera responsabilidad de las empresas demostrar que su tecnología no tiene efectos nocivos. Cuando la gente produce alimentos, tiene que demostrarnos que no son venenosos o que no contienen ingredientes perjudiciales para las personas. […]

[En el fondo se presenta a estos sistemas] como algo que tiene su propia vida, te estás olvidando de que hay una corporación detrás que, en primer lugar, está robando datos de los artistas sin su conocimiento o compensación, y luego lo empaqueta para su propio beneficio. La gente habla del modelo como si no hubiera nadie detrás.

Timnir gebru, Revista eldiario.es pág. 18

La necesidad de una «regulación» pasa por tres modelos distintos: el de EE.UU. basado en «estándares voluntarios» creados y asumidos por las propias empresas; el de la Unión Europea, a partir de condiciones previas que el sistema debe pasar para obtener el sello «CE» que garantiza que el uso de la herramienta posee un riesgo aceptable. El chino, basado en la creación de un marco político y regulatorio (como se establece en otros sectores) que prohíbe la generación de comportamientos disruptivos para el orden social o que exploten vulnerabilidades de los más débiles, como pueden ser los ancianos.

En cuanto a sus límites, hay quienes destacan que la Inteligencia artificial tiene límites y los sitúan en tres ámbitos en los que no parece haber conseguido destacar: la gestión de entornos desordenados; las tareas que impliquen «inteligencia creativa»; y todo aquello en lo que sea necesaria la intervención de la «inteligencia emocional». Veremos si realmente son estos sus límites.


Problemas éticos

Asimov pensó que todo autómata debía incorporar, en sus cerebros positrónicos, las famosas «tres leyes de la robótica», sin embargo, los científicos actuales consideran que dichas leyes no sirven para nada, por cuanto, aunque se cumplan, implican los mismos problemas éticos a los que nos enfrentamos las personas en nuestro día a día. O lo que es lo mismo, nos nos van a evitar discutir, como se hace en la universidad de Oxford, desde hace años, con problemas éticos como el «dilema del tranvía».

En la aplicación médica plantea dos problemas fundamentales que retraen a las instituciones sanitarias a su aplicación generalizada: la primera tiene que ver con la necesidad de determinar quiénes serían los responsables de los daños causados en los pacientes por una respuesta errónea del sistema; la segunda se refiere a la gran cantidad de datos sensibles a los que tendrán acceso estos sistemas, tanto para entrenarse como después cuando gestionen todo el historial completo de los pacientes, ¿quién y cómo se podrá garantizar la privacidad de dichos datos y el uso de los mismos con el consentimiento informado de los pacientes? Ese el problema.


Pilares de la IA

  • Las redes bayesianas, los modelos de Markov (utilizados para procesar y generar lenguaje natural), los algoritmos evolutivos (en los que se van seleccionando aquellos que mejor se adaptan a la tarea que deben realizar),…
  • La teoría de juegos (de estrategia).
  • El análisis del lenguaje natural.
  • La lógica difusa (basada en probabilidad).
  • Los dilemas éticos como el «dilema del tranvía».
  • El aprendizaje automático.
  • Las redes neuronales, los árboles de decisión o la regresión logística.

Para Alejandro Gándara, hemos llamado «inteligencia» a aquello que históricamente apreciamos como una cualidad deseable y valiosa:

  • En Grecia era la habilidad política.
  • En el Renacimiento, la genialidad técnica del inventor o del artista-artesano.
  • En el Barroco, la prudencia.
  • En la Ilustración el saber discursivo.
  • En la edad contemporánea, al procesamiento de la información.

No se es feliz fuera de la vida, […] sino dentro, es decir, enfrentados al dolor, a la soledad, a las numerosas formas de separación y pérdida. La persona feliz es la que sabiamente acepta la vida tal y como es. Dicho de otro modo, la inteligencia que se pone en juego es la de la aceptación sin condiciones de la existencia. Y eso solo puede suceder porque la vida es comprendida, penetrada, asimilada.

Alejandro Gándara – revista eldiario.es, pág. 27

Grandes modelos lingüísticos (LLM – large language model)

https://www.computerworld.es/ia/grandes-modelos-linguisticos-los-cimientos-de-la-ia-generativa

Los grandes modelos lingüísticos evolucionaron junto con las redes neuronales de aprendizaje profundo y son fundamentales para la IA generativa. Son sistemas como GPT (OpenAI), Bard o Llama 2 que nacieron a partir de 2017, momento en el cual Google definió la arquitectura de red neuronal profunda «Transformer».

Estos sistemas se utilizan para una gran variedad de tareas que incluyen: la generación de texto a partir de una indicación descriptiva, la generación de código de programación, el resumen de textos, la traducción entre idiomas y las aplicaciones de texto a voz y de voz a texto.

Su funcionamiento no es siempre preciso: cometen errores al programas o traducir textos que después requieren revisión; asimismo, se sabe que los LLM inventan hechos, llamados «alucinaciones», que pueden parecer razonables si no se conocen mejor. Además los LLM pueden hacer afirmaciones controvertidas o directamente ilegales si les damos indicaciones malintencionadas que se saltan los controles incluidos por sus diseñadores para evitarlas.

Los grandes modelos lingüísticos se diferencian de los modelos lingüísticos tradicionales en que utilizan una red neuronal de aprendizaje profundo, un corpus de entrenamiento de gran tamaño y requieren millones o más de parámetros o pesos para la red neuronal. […]

El entrenamiento de grandes modelos lingüísticos requiere al menos un gran corpus de texto. Algunos ejemplos de entrenamiento son 1B Word Benchmark, Wikipedia, Toronto Books Corpus, el conjunto de datos Common Crawl y los repositorios públicos de código abierto GitHub. Dos problemas potenciales de los grandes conjuntos de datos de texto son la infracción de los derechos de autor y la basura. La basura, al menos, puede limpiarse; un ejemplo de conjunto de datos limpio es el Colossal Clean Crawled Corpus (C4), un conjunto de datos de 800 GB basado en el conjunto de datos Common Crawl.

Martin Heller – (ver enlace en la cabecera de la entrada)

La selección de una base de entrenamiento suficientemente depurada es esencial para evitar errores y, sobre todo, para que no aparezcan sesgos racistas o machistas, por poner dos ejemplos, que muestran las respuestas de estos sistemas. Al fin y al cabo sólo reproducen aquello que se les ha enseñado.

Entrenar un gran modelo lingüístico consiste en optimizar los pesos para que el modelo tenga la tasa de error más baja posible para su tarea designada.

Los pesos, o parámetros del sistema, son los valores que el sistema posee y que va ajustando, con cada aprendizaje, para que sus respuestas sean lo más acertadas posible: ya sea al predecir el siguiente movimiento en una partida de ajedrez, la siguiente palabra en un párrafo o el diagnóstico en una imagen médica,…

El número de parámetros creció a lo largo de los años, hasta que dejó de hacerlo. ELMo (2018) tiene 93,6 millones de parámetros; BERT (2018) se lanzó en tamaños de 100 millones y 340 millones de parámetros; GPT (2018) utiliza 117 millones de parámetros; y T5 (2020) tiene 220 millones de parámetros. GPT-2 (2019) tiene 1.600 millones de parámetros; GPT-3 (2020) utiliza 175.000 millones de parámetros; y PaLM (2022) tiene 540.000 millones de parámetros. GPT-4 (2023) tiene 1,76 billones de parámetros.

[…] Más parámetros hacen que un modelo sea más preciso, pero los modelos con más parámetros también requieren más memoria y se ejecutan más lentamente. En 2023, hemos empezado a ver algunos modelos relativamente pequeños lanzados en múltiples tamaños: por ejemplo, Llama 2 viene en tamaños de 7.000, 13.000 y 70.000 millones, mientras que Claude 2 tiene tamaños de 93.000 y 137.000 millones de parámetros.

ibid

Un sistema como Chat-GPT no es sino un modelo lingüístico que calcula cuál es la palabra más probable que sigue en un párrafo o en una frase a partir del aprendizaje profundo del material que se le ha proporcionado. En esencia son modelos estadísticos del lenguaje que asigna probabilidades a secuencias de palabras. Un ejemplo sencillo de estas funciones es el sistema de autocomplementar que nos ofrece la escritura predictiva del ordenador o del teléfono cuando comenzamos una búsqueda en el navegador o tratamos de escribir un mensaje.

Estos sistemas se han ido afinando para especializarlos en tareas concretas tales como: generar texto original, clasificar texto, responder preguntas, analizar sentimientos, reconocer entidades con nombre, reconocer el habla, reconocer texto en imágenes y reconocer escritura a mano.

Reacciones ante la Inteligencia Artificial

  • el enfado,
  • el neoludismo,
  • el tecno-optimismo,
  • la burla,
  • el misticismo.

Enseñar a una Inteligencia artificial

En marzo de 2018, un Uber autónomo atropelló a Elaine Herzberg cuando cruzaba un paso de cebras con su bicicleta en Arizona. Aparentemente lo hizo porque no iba pedaleando sentada sobre su bicicleta sino caminando al lado de ella. Esa variación, aunque corriente, no figuraba en sus datos de entrenamiento y, por lo tanto, el vehículos no la vio. No vio una concentración de átomos moviéndose en el espacio, ni siquiera un bloque de pixeles bloqueando la carretera. Para los modelos actuales de Inteligencia Artificial, el mundo es sólo una simulación del mundo, donde los dictados de su proceso interno se superponen sobre la realidad.

marta peirano, Infolibre, Tinta libre de abril de 2024, pág. 18

Comienza a ser un problema adiestrar a las inteligencias artificiales por cuanto la capacidad humana de producción es limitada y, por tanto, también lo es la cantidad de material que se le puede ofrecer para adiestrarla.