Una breve historia del machine learning: la tecnología que está cambiando nuestras vidas

icono fuente

Desde la creación y durante la evolución de las tecnologías de la información, las personas han intentado crear una computadora o un sistema computacional que actúe de forma independiente, con la idea de convertirla en algo más que solo una herramienta de trabajo.

Han sido muchos los intentos y enfoques empleados para lograr tal fin. Uno de los más notables —por la historia que hay detrás y los autores implicados— corresponde a los autómatas. Sus primeros registros datan de los siglos XII y XIII, cuando el inventor árabe  describió una de sus creaciones, la orquesta de Al-Jazari (1). Está máquina creaba música y movía a unos músicos de metal para amenizar eventos a partir de una corriente de agua. Algunos autores consideran a este autómata como la primera máquina reprogramable de la historia.

Fue tanta la fascinación con los autómatas que, en el desarrollo de este tipo de artefactos, formaron parte grandes genios de la historia como Leonardo da Vinci. Si bien, estas increíbles piezas parecían tener movimientos autónomos y plenamente intencionales, la realidad distaba mucho de ello. Realmente, sus creadores eran responsables de planear, crear, modificar y reprogramar estas acciones, delegando a la máquina la única tarea de ejecutar esas instrucciones por medio de movimientos.

Casi seiscientos años después en el siglo XIX, Ada Lovelace, conocida como la primera mujer programadora de la historia, añadió notas explicativas para la máquina analítica del matemático Charles Babbage. Así, diseñó el primer algoritmo destinado a ser procesado por una máquina. Esta sinergia forma parte del antecedente de la primera computadora moderna, pues creó un punto de inflexión en la historia en el que, por fin, fue posible vislumbrar un objeto que pudiera servir a más de un fin; con ello se abría la posibilidad, al menos en apariencia, de contar con un artefacto inteligente.

Como podrás ver, en seiscientos años pasamos de los autómatas —elementos puramente mecánicos con un uso específico definido— a una computadora electromecánica de uso general con la posibilidad de reprogramarse con relativa facilidad. En los siguientes doscientos años, esta tecnología mejoró, llegando a hitos como el alcanzado en 1952 cuando se construyó y se programó por primera vez un ratón mecánico capaz de resolver un laberinto por sí solo (2). Lo mismo ocurrió en 1979 cuando, en la universidad de Stanford, se diseñó un vehículo capaz de moverse autónomamente y de pilotear entre diferentes obstáculos (3). Ambos hechos podrían considerarse fundamentales en el desarrollo de la inteligencia artificial.

La era de la inteligencia artificial ha llegado

Gracias a los avances en sistemas computacionales y la disponibilidad cada vez más grande de datos, una nueva disciplina de las ciencias computacionales nació: la inteligencia artificial, usualmente referida como IA o AI por sus siglas en inglés.

¿A qué nos referimos con inteligencia artificial? De acuerdo con el Diccionario de la lengua española de la RAE, esta alude a una disciplina científica encargada de crear programas informáticos que realizan operaciones similares a las de la mente humana. A pesar de que esta es una definición acertada, la terminología no expresa todos los matices de esta área. Por ejemplo, pasa por alto la temporalidad de cuando este término es usado y expresado: hace algunos años, el reconocimiento óptico de caracteres (OCR) se percibía como una aplicación del campo de la inteligencia artificial; sin embargo hoy, debido a los avances de la tecnología, esta acción se percibe como una tecnología común, dejando de lado la parte “inteligente” de ella.

Aunque es cierto que la inteligencia artificial pretende igualar e, incluso, superar la inteligencia humana, la realidad dista de ello y nos acerca a una “inteligencia especialista” más que a una “inteligencia generalista” como la inteligencia humana. El machine learning o aprendizaje automático es un subapartado de la inteligencia artificial que, mediante distintos algoritmos, busca desarrollar sistemas que aprendan o mejoren su rendimiento en función de los datos consumidos o actividades realizadas.

Si regresamos a la premisa expresada anteriormente (inteligencia especialista vs. inteligencia generalista), podemos encontrar, por ejemplo, que sistemas computacionales apoyados por el aprendizaje automático han excedido, en muchos casos, a las capacidades de un médico para detectar diferentes tipos de cáncer. Esto se menciona en el artículo How AI is improving cancer diagnostics (4), de la prestigiosa revista Nature. A diferencia de un médico que tiene una formación integral y generalista, un algoritmo computacional puede especializarse en un solo rubro; en este caso, el diagnóstico de cáncer por medio de imágenes de estudio (radiografías, tomografías, ecografías, etc.).

Para facilitar la comprensión, podemos decir que el machine learning es un buscador muy especializado de patrones que —por medio de métodos matemáticos, estadísticos e informáticos— clasifica o predice elementos futuros dado un conjunto de datos. Entre más datos se tenga para ingerir y procesar, su capacidad de entregar un resultado correcto mejorará cada vez más, en este sentido el algoritmo está aprendiendo.

Existen dos principales enfoques de aprendizaje automático, el aprendizaje automático supervisado y el aprendizaje automático no supervisado. En el primero, un científico de datos actuará como un maestro y supervisor que mostrará al algoritmo las conclusiones que debe obtener. Para ello, el especialista en ciencia de datos deberá hacer un análisis de la información con la que se cuenta, determinará y creará un conjunto de datos correctamente etiquetado y con un resultado esperado el cual dará al sistema y, por medio de algoritmos definidos, aprenderá a predecir el resultado cada vez que se le proporcionen nuevos datos.

En el segundo enfoque: el aprendizaje automático no supervisado, se busca que el ordenador aprenda a identificar patrones y procesos complejos sin la intervención constante de un ser humano. En este caso, el conjunto de datos entregado no se etiqueta ni tiene un resultado esperado. Con ello, se pretende que la computadora o el programa informático haga las inferencias y encuentre las relaciones entre los datos.

Podemos decir que el aprendizaje automático supervisado se enfoca en tareas específicas como la detección de cáncer, mientras que el aprendizaje automático no supervisado se centra en las relaciones que hay entre los datos, como encontrar patrones entre grupos de personas y así, por ejemplo, recomendar un producto en una tienda virtual. Será entonces responsabilidad del científico de datos determinar el tipo de aprendizaje automático a utilizar en función de las necesidades y los datos disponibles para la tarea asignada.

La empresa Oracle establece algunos campos en los que más ha florecido el aprendizaje automático. Dentro de ellos, destacan los siguientes:

  • Determinar el valor de vida de un cliente para una empresa.
  • Detectar anomalías.
  • Fijar precios dinámicos.
  • Realizar un mantenimiento predictivo en sistemas o maquinarias.
  • Hacer motores de recomendación para tiendas virtuales.

Podemos indicar que el aprendizaje automático es un sistema computacional capaz de reconocer patrones para realizar predicciones. Las empresas más conocidas que usan esta tecnología con el objetivo de facilitar la vida de sus clientes son Netflix, Spotify, Amazon y Gmail. ¿Has notado que, repentinamente, te aparecen sugerencias de videos, canciones, artículos o dejan de llegar correos no deseados? Esto es resultado del machine learning.

Las aplicaciones del aprendizaje automático y la inteligencia artificial son prácticamente ilimitadas; serán los especialistas en tecnologías de información o científicos de datos los encargados de encontrar el valor de estos algoritmos dentro de la organización y ¿por qué no? aplicarlos para la mejora en la calidad de vida del ser humano.

Referencias

  1. Becker, J. (24 agosto de 2018). The history of the future. Virtual Vehicle. Recuperado de https://bit.ly/3LKfkwl
  2. Giaimo, C. (21 de agosto de 2019). Of mice, men, and computers. MIT Technology Review. Recuperado de https://bit.ly/3LGUEoV
  3. Norman, J. N. (6 abril de 2022). Al-Jazarī Creates the First Recorded Designs of a Programmable Automaton. History of Information. Recuperado de https://bit.ly/3y6m2ZI
  4. Real Academia Española. (2014). Diccionario de la lengua española. Madrid: Espasa Calpe.
  5. Savage, N. (2020). How AI is improving cancer diagnostics. Nature, 579, 14-16. Recuperado de https://go.nature.com/3OWUufa
Imagen de autor

Carlos Alexandro Giles Berrum

Redactor en EXPOST
Redes sociales

  1. Enrique Burton dice:

    Un tema de lo más pertinente. Diariamente convivimos con autómatas basados en IA automática y eso ¡tiende a expandirse! Es uno de los campos de gran oportunidad para los(as) estudiantes y para el país. Saludos.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Todos los derechos reservados IEXE 2022 Aviso de Privacidad Contacto

IEXE Universidad