Ciencia y religión, a favor y en contra
La irrupción de la inteligencia artificial, como toda tecnología a lo largo de la historia, requiere de nuevas reglas, de una apertura cultural y social y el nacimiento de nuevos paradigmas o la hibridación de paradigmas ya existentes. Los detractores sostendrán que las aplicaciones de inteligencia artificial en medicina, educación, finanzas, etc. motivarán problemas éticos que abarcan la responsabilidad autoral ante la Justicia, la sociedad e incluso la religión hasta aquellos ámbitos más cercanos que la considerarán como una amenaza que promueve el desempleo y el manejo de la privacidad de los datos. Los defensores abrazarán los beneficios en función del progreso, darán primacía a la velocidad de cálculo, la capacidad de cognitivas asociadas con funciones del cerebro humano.
De todos modos, aunque el concepto de inteligencia artificial sea difuso y pueda pensarse como una ciencia, un estudio, un conjunto de tecnologías, una disciplina, podemos rescatar los puntos de contacto y entender la inteligencia artificial como aquellos algoritmos que se materializan en programas informáticos que, a su vez, corren sobre un hardware determinado, y cuyo objetivo fundamental es imitar el modo de funcionamiento del cerebro humano. Justamente, en esta definición se encuentra el componente central: “imitar las funciones cognitivas del cerebro humano”, ese algo biológico y también lingüístico que posibilita que nos comuniquemos con la máquina. Lo biológico: las redes neuronales, lo lingüístico: el lenguaje natural. Comprender, interpretar, incorporar y procesar los elementos sin- toma de decisiones y diagnósticos complejos, automatización de tareas rutinarias que permitan redistribuir a sus operarios y asignarles otras funciones que impliquen agudizar sus capacidades creativas, entre otras, y la generación de nuevas fuentes de trabajo. Habrá resistencia, tal vez al principio, si pensamos que estamos inmersos en un ecosistema donde grandes volúmenes de datos serán analizados. Este es el marco en el que se desarrollarán en la ciudad de Buenos Aires los días 7 y 8 de junio las I Jornadas de Inteligencia Artificial y Procesamiento de Lenguaje Natural, promoviendo el enfoque colaborativo e integrador de aquellos conocimientos compartidos en la academia y con una fuerte impronta en su aplicación a diferentes sectores. tácticos, semánticos, morfológicos y pragmáticos del lenguaje natural, sin olvidarnos del componente emotivo, a través de herramientas computacionales que contribuyan a mejorar la capacidad de “razonamiento” de las máquinas es el punto de inflexión de la inteligencia artificial. De Turing al ecosistema actual. Ahora bien, todas las teorizaciones y conceptualizaciones necesitan de un contexto o marco donde se puedan implementar. Diversas aplicaciones en inteligencia artificial han mostrado un crecimiento exponencial con aportes importantes en salud, educación, gobierno, entre otros ámbitos.
En la actualidad, es posible ver una sinergia entre la academia y la industria. Departamentos de investigación de reconocidas instituciones académicas a nivel mundial y local trabajan en forma conjunta para explorar aplicaciones innovadoras en inteli- gencia artificial, que algunos llamaron “disruptivas” y otros “fundacionales”.
En salud, el análisis de grandes volúmenes de datos históricos (sean estructurados o no estructurados), que incluyen historias clínicas, antecedentes familiares, hábitos del paciente, permiten la detección, predicción de enfermedades y aplicación de tratamientos personalizados. Un ejemplo es Watson Health, que consiste en una plataforma en cloud abierta que permite recopilar, combinar y compartir los datos relacionados con la salud de manera anónima y optimizar su posterior análisis.
Un proyecto tal vez menos difundido es el páncreas artificial, realizado por un equipo de Conicet en conjunto con investigadores médicos del Hospital Italiano de Buenos Aires y un asesor médico del Centro Tecnológico para la Diabetes de la Universidad de Virginia, en 2017, y que se encuentra en fase experimental. Este pro- yecto se basa en un algoritmo que decide automáticamente la cantidad de insulina necesaria para regular la glucosa en sangre.
Un subcampo de la inteligencia artificial y de la lingüística es el procesamiento de lenguaje natural que consiste en hacer que las computadoras comprendan los enunciados en lenguaje humano (lenguaje natural). El mismo se basa en un análisis tripartito de las estructuras sintáctica, semántica y pragmática como punto de partida para la comprensión del lenguaje humano. Uno de los usos más comunes es el análisis de sentimiento, esto es, mediante un algoritmo clasificar la polaridad de un enunciado en positiva o negativa de manera automática, creando un índice que permite realizar mediciones sobre las opiniones en tiempo real con respecto a diferentes temas en redes sociales, blogs, noticias, etc. Un caso es el proyecto de interpretación de noticias financieras en tiempo real radicado en el Centro de Altos Estudios en Tecnología Informática (UAI).
En otros entornos existen innumerables aplicaciones inteligentes, como por ejemplo los sistemas de conducción autónoma. Tesla junto con AMD han realizado el diseño de un chip de inteligencia artificial basada en una red neuronal que permite la detección de objetos distantes, monitoreo de puntos ciegos y mayor visibilidad al momento de entrar en intersecciones o estacionar automáticamente.
Podríamos continuar enumerando ejemplos y citando trabajos recientes en materia de inteligencia artificial. Lo cierto es que la automatización, ya sea de procesos o cognitiva, se ha transformado en la influencia más significativa desde la Revolución Industrial. Las tecnologías disruptivas están cambiando la forma de pensar el ecosistema planteando desafíos y propiciando una interacción diferente entre sus agentes.
En la actualidad, es posible ver una sinergia entre la academia y la industria. Hay innovaciones disruptivas y fundacionales