La prueba de Eliza
En 1966, Joseph Weizenbaum del MIT revolucionó el mundo de la tecnología con Eliza, el primer bot conversacional.
Eliza fue diseñada como un programa de terapia simulada. Actuaba como un «psicoterapeuta Rogeriano», un enfoque terapéutico basado en la escucha activa y la empatía.
Su habilidad para espejar las palabras del usuario fomentaba una introspección profunda, revolucionando la forma en que interactuamos con la tecnología. Eliza utilizaba un análisis de texto básico para identificar palabras clave y construir frases de continuidad como «¿En serio?», «Cuéntame más sobre eso», hasta «¿Eso te preocupa?». Estas frases ayudaban a mantener una conversación fluida pero superficial.
Aquí tienes un ejemplo de cómo hubiéramos conversado con Eliza sobre jobbox:
-
Yo: He estado probando jobbox
-
Eliza: ¿Probando jobbox?
-
Yo: Sí, su enfoque en IA y procesamiento de lenguaje es innovador para Recursos Humanos.
-
Eliza: ¿Por qué piensas que es innovador?
-
Yo: Pues porque ofrece soluciones personalizadas y utiliza tecnología avanzada.
-
Eliza: ¿Qué tipo de soluciones personalizadas?
-
Yo: Por ejemplo, asesoramiento en la redacción de CVs, en el perfil de Linkedin y preparación de entrevistas.
-
Eliza: ¿Que te ofrezca asesoramiento en CVs, en el perfil de Linkedin y entrevistas te parece útil?
-
Yo: Absolutamente, y también te entrega información actualizada del mercado laboral.
-
Eliza: ¿Te preocupan las actualizaciones del mercado laboral?
A pesar de sus limitaciones (Eliza no podia recordar conversaciones anteriores, entender ironías, ni mantener un diálogo coherente a largo plazo) esta invención representaba un paso adelante por ser una de las primeras instancias donde una máquina podía simular una conversación con un humano, creando la ilusión de comprensión y empatía a pesar de su simple programación basada en reglas. Esto no solo fue una innovación tecnológica, sino que también abrió nuevas perspectivas sobre la interacción entre humanos y computadoras.
Hablemos de redes y «conectemos» con la entrada anterior
¿Recuerdas la entrada anterior? Hablamos de 4 técnicas de IA y sus usos típicos:
-
PLN Basado en Reglas: Analiza y produce texto siguiendo reglas gramaticales definidas. Uso típico: sistemas de chatbot simples para atención al cliente.
-
Aprendizaje Automático Clásico: Aprende de ejemplos históricos para realizar tareas específicas. Uso típico: filtrado de correos electrónicos spam.
-
Sistemas Expertos: Emulan la toma de decisiones basadas en conocimientos especializados. Uso típico: diagnósticos médicos o asistencia en decisiones de ingeniería.
-
Redes Neuronales No Profundas: Detecta patrones básicos en datos. Uso típico: reconocimiento de escritura a mano en dispositivos táctiles.
La IA conversacional de hoy ha avanzado enormemente desde Eliza, ofreciendo interacciones que se asemejan cada vez más a conversaciones humanas reales. Resulta que ha sido la evolución de las redes neuronales, junto con otros avances tecnológicos y teóricos, ha sido fundamental en impulsar la revolución actual de la Inteligencia Artificial.
Ahora profundicemos en las Redes Neuronales
Las redes neuronales son sistemas informáticos diseñados para simular el modo en que el cerebro humano funciona. Inicialmente, las versiones tempranas, llamadas redes neuronales no profundas, eran relativamente simples, con pocas capas para procesar datos. Aunque eran eficaces en tareas básicas como el reconocimiento de patrones simples, tenían dificultades para comprender situaciones más complejas. Con el tiempo, los investigadores exploraron redes con más capas, lo que llevó al desarrollo de las redes neuronales profundas. Estas redes funcionan como sistemas de múltiples niveles, donde cada nivel aprende sobre diferentes aspectos de los datos, desde lo simple hasta lo complejo, permitiendo a las computadoras realizar tareas avanzadas como el reconocimiento de imágenes, el procesamiento del lenguaje humano y más.
Me parece haber visto un lindo gatito.
Imaginemos que queremos entrenar una máquina para diferenciar entre gatos y perros, un desafío común en el campo del reconocimiento de imágenes. El proceso se asemeja a cómo un niño aprende a distinguir entre diferentes animales. Aquí está cómo lo haríamos:
- Recolección de Datos: Comenzamos reuniendo una variedad de imágenes de gatos y perros en diferentes razas, tamaños y entornos para que la máquina pueda aprender mejor.
- Etiquetado de Datos: Luego, etiquetamos cada imagen claramente como ‘gato’ o ‘perro’.
- Entrenamiento de la Red: Usamos una red neuronal para procesar las imágenes. El sistema intenta descubrir las diferencias entre gatos y perros, como la forma de las orejas o la textura del pelaje.
- Ajuste y Validación: Tras procesar las imágenes, afinamos la red para mejorar su precisión y luego la ponemos a prueba con nuevas imágenes para verificar si puede aplicar lo que ha aprendido.
Durante el entrenamiento, la máquina practica una y otra vez para mejorar en distinguir entre gatos y perros. Al principio, puede equivocarse porque aún está aprendiendo, pero con el tiempo, la máquina se vuelve experta en notar detalles sutiles como la forma de los ojos o cómo se ve el pelo. Al final, la máquina puede terminar siendo tan buena – o mejor – que una persona en esta tarea.
¿Cómo se relaciona todo esto con el fenómeno actual de la IA generativa? ¿Cuál fue el catalizador que desató el reciente auge de la IA? En la próxima entrega, revelaré los secretos detrás del avance sorprendente de las redes neuronales y el factor que ha impulsado el actual boom de la inteligencia artificial. ¡Acompáñame a descubrir los secretos detrás de esta revolución tecnológica!