El ‘machine learning’ –aprendizaje automático– es una rama de la inteligencia artificial que permite que las máquinas aprendan sin ser expresamente programadas para ello. Una habilidad indispensable para hacer sistemas capaces de identificar patrones entre los datos para hacer predicciones. Esta tecnología está presente en un sinfín de aplicaciones como las recomendaciones de Netflix o Spotify, las respuestas inteligentes de Gmail o el habla de Siri y Alexa.
“En definitiva, el ‘machine learning’ es un maestro del reconocimiento de patrones, y es capaz de convertir una muestra de datos en un programa informático capaz de extraer inferencias de nuevos conjuntos de datos para los que no ha sido entrenado previamente”, explica José Luis Espinoza, científico de datos de BBVA México. Esta capacidad de aprendizaje se emplea también para la mejora de motores de búsqueda, la robótica, el diagnóstico médico o incluso la detección del fraude en el uso de tarjetas de crédito.
Aunque ahora esté de moda, gracias a su capacidad para derrotar a jugadores del Go o resolver cubos de Rubik, su origen se remonta al siglo pasado. “La estadística es sin duda la base fundamental del aprendizaje automático, que básicamente consiste en una serie de algoritmos capaces de analizar grandes cantidades de datos para deducir cuál es el resultado más óptimo para un determinado problema”, añade Espinoza.
Matemáticas antiguas, nueva computación
Hay que remontarse al siglo XIX para encontrar algunos de los hitos matemáticos que sentaron las bases de esta tecnología. El teorema de Bayes (1812) definió la probabilidad de que un evento ocurra basándose en el conocimiento de las condiciones previas que pudieran estar relacionadas con dicho evento.
Años después (en la década de 1940) otra serie de científicos sentaron las bases de la programación informática: capaz de traducir una serie de instrucciones en acciones ejecutables por un ordenador. Estos precedentes hicieron posible que en 1950 el matemático Alan Turing plantease por primera vez la pregunta de si es posible que las máquinas puedan pensar, con la que plantó la semilla de la creación de computadoras de ‘inteligencia artificial’. Computadoras capaces de replicar de forma autónoma tareas típicamente humanas, como la escritura o el reconocimiento de imágenes.
Fue un poco más adelante, entre las décadas de 1950 y 1960, cuando distintos científicos empezaron investigar cómo aplicar la biología de las redes neuronales del cerebro humano para tratar de crear las primeras máquinas inteligentes. La idea derivó en la creación de las redes neuronales artificiales, un modelo computacional inspirado en la forma en que las neuronas transmiten la información entre ellas a través de una red de nodos interconectados. Uno de los primeros experimentos en este sentido lo realizaron Marvin Minksy y Dean Edmonds, científicos del Instituto Tecnológico de Massachussets (MIT). Ambos lograron crear un programa informático capaz de aprender de la experiencia para salir de un laberinto.
¿Cómo funciona el Machine Learning?
Una palabra que oirás mucho últimamente es Machine Learning, un concepto proveniente de Arthur Samuel en 1959, lo que lo definió como «la habilidad de aprender una computadora sin ser explícitamente programada». Este concepto tan genérico que a día de hoy parece novedoso, ya tiene más de 50 años, y como toda disciplina científica ha evolucionado de una manera agigantada en estos últimos años debido a la mejora exponencial de las capacidades de computación.
Al fin y al cabo, el Machine Learning se ha instalado en nuestro día a día sin que realmente nos demos cuenta. Según un estudio extraído de Hubspot el 63% de las personas utilizan tecnologías basadas en el aprendizaje automático, como por ejemplo Siri, la inteligencia artificial de Apple, o el hecho de interactuar con bots vía Facebook o por alguna E-commerce. También es utilizado para encontrar nuevas curas, traducir idiomas y otras muchas cosas más.
Cualquier programa informático con el objetivo de aprender necesita de un ingrediente fundamental: Los datos. Es por esta razón que este concepto perteneciente a la Inteligencia Artificial se vincula con frecuencia a la rama del Big Data.
¿Cómo aprende una maquina con Machine Learning?
Primero, para entender con claridad cómo aprende una maquina, tenemos que entender la diferencia que existe entre datos estructurados, y datos no estructurados.
Datos estructurados: Son los datos más utilizados por las empresas, y son los que se suelen encontrar en la mayoría de las bases de datos. Son archivos de tipo texto que suelen clasificarse por filas y columnas con títulos, como excel o access. Este tipo de datos ya están ordenados y son fácilmente procesables por cualquier herramienta de minería de datos.
Dicho de manera práctica, sería como un archivador perfectamente organizado por etiquetas. Un ejemplo sería un CRM de clientes, clasificado por nombres, email, teléfono y facturas previas.
Datos no estructurados: Se definen como datos binarios que no tienen estructura interna identificable, es decir, un conglomerado masivo y desorganizado de datos que no tienen ningún tipo de utilidad hasta que se procesan y almacenan de manera ordenada.
Una vez que estos datos han pasado por un proceso de filtrado, estos pueden ser fácilmente encontrados y categorizados (con mayor o menor exactitud) para obtener información. Un caso práctico serían los correos electrónicos, si estos se exportan en masa sólo con su «asunto» y su «mensaje», un programa de minería de datos no sería capaz de clasificar los mensajes por diferentes categorías, ya que necesitas procesar cada una de las palabras, compararlas con un contexto, y luego clasificarla según unos patrones previos.
Cabe destacar, que según un estudio de Deloitte, el 90% de los datos que se generan en el mundo provienen fuentes de datos no estructurados, y sólo el 10% pertenecientes a fuentes de datos estructurado. Es aquí la estricta necesidad de la combinación de las ciencias de datos para la extracción y tratamiento de datos, sumado al uso del Machine Learning para la organización de los datos, sobre todo para la información no estructurada.