<p>Trabajando para la difunta Lehman Brothers, por ejemplo, Kearns había intentado que una computadora hiciese algo hasta ahora casi imposible: pensar como un operador de Wall Street, pero manejando miles de transacciones sin perder de vistas sutiles cambios en los mercados.<br /><br />En un sentido, esta eventual “máquina de sacar ganancias” parece una mutación muy peligrosa de un proyecto japonés, conocido hace más de veinte años: los ordenadores de quinta generación. Por motivos nunca bien claros, la idea quedó sepultada en los archivos. En 2007, ingenieros de sistemas y matemáticos la desenterraron –sin mencionar su origen-, pero orientada a afinar instrumentos para grandes intermediarios financieros y bursátiles.<br /><br />Naturalmente, el concepto de IA remite a la “prueba de Turing” (1951) para reconocer la inteligencia cibernética. Su epónimo, Alan Turing, se suicidó en 1954 y, recién en 1956, surgió el término “inteligencia artificial”. A los dos años, se creó el programa Lisp, un lenguaje de IA, sustituido en 1964 por computadoras capaces de entender lenguaje humano básico, suficiente para resolver problemas algebraicos. Por fin, en 1965, aparece Eliza, un programa interactivo capaz de dialogar en inglés neutro y esquemático sobre cualquier tópico.<br /><br />Ahí arrancan las innovaciones que desembocarán en nuevos ensayos de “IA financiera”. En 1968, Stanley Kubrick, imagina –partiendo de Arthur Clarke- en “2001” un ordenador inteligente de tipo holístico, HAL-9000. A su vez, el escritor se inspiraba en el antepasado de la computación, Charles Babbage (1792/1871), que concibió -pero no construyó- una computadora de fichas perforadas. Mucho después, en 1987/8, las operaciones automáticas ayudaron a provocar un crac bursátil global.<br /><br />Ello no impidió que diversas aplicaciones de IA (“máquinas que aprenden”) invadan todo tipo de sectores y, al fin, Internet. En 1999, Sony presentó un perro robot que sólo parece servir para que los japoneses se diviertan. En 2000, “Inteligencia artificial”, un producto mediocre de Steven Spielberg (astuto, pero nunca un Kubrick) se candidateaba para un Oscar que no obtuvo.<br /><br /> </p>
<p>Kearns es un optimista clásico y sostiene que “la IA cambiará Wall Street primero y después, el mundo”. Olvida que gurúes de la efímera “nueva economía”, como Nicholas Negroponte o Abigail Cohen (Goldman Sachs) prometían lo mismo hace diez años. Tampoco advierte que, en el mundillo académico, “AI” tiene una traducción irónica, “aventuras imposibles”. Sea como fuere, un ejército de analistas cuantitativos (AC) y graduados terciarios quisiera desbancar a operadores convencionales.</p><p>Por supuesto, hace decenios que bancas de inversión, fondos de cobertura y otros segmentos usan AC para detectar relaciones y tendencias subyacentes. El objeto consiste en explotar esos datos en veloces transacciones computadas. Los AC pretenden excluir móviles humanos –miedo, codicia-, pero ocurre que sus empleadores y los medios ven la codicia como virtud teologal.</p><p>Apóstoles de la IA como Kearns, Dhar o Kathleen McKeown creen que el tiempo está de su lado. Algunos tienen una meta nada modesta: construir un Warren Buffett cibernético, capaz de procesar todo tipo de interrogante financiero, económico, geopolítico, etc., que afecte al mercado. Por el contrario, muchos científicos, empresarios o ejecutivos prefieren –como el difunto Peter Drucker, que conoció a Turing-no tocar el tema. En verdad, la AI nunca satisfizo las ilusiones de los años 60 y 70.</p><p>Existe una razón objetiva, bellamente expuesta en “Solyaris” –filme de Andryéi Tarkovskiy- o el ciclo “Fundación” de Isaac Asìmov. Tiene que ver con una situación ya clásica: el ordenador derrota a eximios ajedrecistas, pero no puede predecir el decurso de una sola acción relevante. ¿Por qué? Porque el tablero de ajedrez tridimensional es un sistema cerrado. Al revés, el mercado es un sistema abierto, una masa ilimitada o cambiante de operadores y otra similar de eventos, vínculos, situaciones e imponderables. Por ello, una computadora no parece capaz de ganar una partida de póquer ni la guerra en Afganistán-Pakistán.<br /><br />Obviamente, según apunta Brian Hamilton (Raleigh), los programas tipo IA pueden resolver problemas específicos según parámetros finitos. Así, en febrero Intel anunció haber desarrollado un microprocesador tamaño uña capaz de procesar un billón de cálculos por segundo. En los años 90, lo mismo exigía 10.000 semiconductores. Ante los creyentes se yergue otro obstáculo: el procesamiento de lenguajes naturales (PLN). Puesto en términos fáciles, la posibilidad de que un ordenador entienda un idioma humano, pueda usarlo y hasta aplicarlo a decisiones financieras.<br /> </p>
<p>La norteamericana Collective Intellect emplea ya programas elementales tipo PLN que “peinan” 55 millones de sitios web en pos de datos que generen utilidades a fondos de cobertura (derivados). Otro campo de IA, las redes neurales, implica replicar con “nanochips” el esquema de la corteza cerebral. Pero hoy, ni los programas más complejos de IA muestran sentido común u olfato y, en situaciones críticas, pueden ocasionar catástrofes, confiesan Kearns y Dhar.<br />
<br />
Sin duda, el lenguaje seguirá constituyendo una enrome brecha entre inteligencia humana y artificial. “Cerrarla requiere enormes inversiones por parte de Wall Street y otras plazas”, afirma Dhar, que concibe los mercados especulativos como “gigantescos bancos de pruebas para la IA”. <br />
<br />
En medio de los nuevos debates, julio termina con otra novedad espectacular: avanzan estudio sobre cómo el cerebro descifra el lenguaje escrito. Sucede que la escritura recién surge hace unos seis mil años, si se aceptan como primeras formas el sistema cuneiforme sumerio y los jeroglíficos egipcios. Pero el nexo directo entre sonidos y letras recién data de hace unos 3.500 años. Obviamente, es muy poco para generar cambios evolutivos en el hombre, pero algo ocurrió para que las redes neurales hayan podido detectar signos y grupos fonéticos cada vez más complejos. <br />
</p>