Por Christian Reilly, Chief technology officer at Citrix.
La inteligencia artificial (IA) pareciera ser el tema del momento. Todos hablan de ella, y hay cada vez más productos informáticos que incluyen algún tipo de tecnología basada en IA, desde los algoritmos del aprendizaje automático (machine learning) hasta las redes neuronales y el aprendizaje profundo. En este contexto, es tentador pensar en la IA como otro caso de bombardeo publicitario, una moda que pasará dentro de pocos meses. Pero por muchos motivos, la IA llegó para quedarse.
En primer lugar, es importante recordar que la IA en realidad no es nueva. Desde la historia antigua, la inteligencia artificial es un tema recurrente en la historia de la literatura. La IA moderna –es decir, computacional– data de la década de 1950 cuando una computadora aprendió a desarrollar su propia estrategia para un juego de mesa. La década de los 80 vio una oleada de sistemas expertos diseñados para dar apoyo a profesionales humanos en diversos campos, mientras que en las décadas de los 90 y 2000, los sistemas basados en IA se utilizaron para la minería de datos relacionada con negocios y las investigaciones médicas, entre otras cosas.
El auge de interés en la IA en la actualidad tiene su origen en dos acontecimientos recientes. En primer lugar, la potencia informática y las capacidades de almacenamiento se han vuelto increíblemente económicas. En la década de los 50, por ejemplo, el hardware de almacenamiento que podía alojar 3,75 MBytes de datos –el espacio de almacenamiento suficiente para apenas una fotografía actual de baja resolución– era tan grande que había que moverlo en montacargas. Hoy en día, se puede adquirir una memoria USB que puede almacenar miles de fotos en alta resolución, y se puede transportar fácilmente en el bolsillo, sin necesidad de un montacargas. Al mismo tiempo, los proveedores de servicios en la nube, en especial los llamados hyperscalers (compañías con un gran número de servidores en sus centros de datos), han hecho que la potencia informática y las capacidades de almacenamiento aparentemente ilimitadas estén disponibles para su uso comercial y privado ininterrumpido.
La segunda tendencia importante es la Internet de las cosas (IoT). Una enorme variedad de dispositivos –desde aparatos móviles hasta fábricas e instalaciones– ahora están equipados con tecnología de sensores. Estos sensores generan una gran cantidad de datos en constante aumento que es preciso procesar y analizar para tomar medidas.
La interacción de los datos generados se ha vuelto tan compleja que las consecuencias son imperceptibles para el ojo humano. Por ejemplo, un análisis de variaciones esporádicas en la conducta de una máquina puede indicar que pronto será necesario hacer tareas de mantenimiento, un enfoque de monitoreo llamado “mantenimiento predictivo”. En la actualidad, estos descubrimientos de datos del tipo “aguja en un pajar” se pueden hacer mucho más rápido y con más precisión usando tecnología moderna basada en IA que cuando están hechos por seres humanos.