Capítulo 7
Máquinas que aprenden
«Habrá comprobado el
lector que no dispongo de argumento positivo alguno lo bastante convincente
para apoyar mi tesis. Si lo tuviera, no me habría tomado tanta molestia en exponer
detalladamente las falacias de las tesis contrarias. Ahora expondré la
evidencia en favor de mi punto de vista.
Volvamos
brevemente a la objeción de lady Lovelace, quien afirmaba que la máquina sólo
puede hacer lo que nosotros le mandemos. Podríamos decir que una persona puede
“inyectar” una idea en una máquina y que ésta respondería hasta cierto límite,
quedándose quieta a continuación, como la cuerda de un piano percutida por un
martillo. Otro símil podría ser una pila atómica de tamaño inferior al crítico:
una idea inyectada correspondería a un neutrón que penetra desde fuera en la
pila. Cada uno de estos neutrones provoca una determinada alteración que acaba
por disiparse. Sin embargo, si aumentamos suficientemente el tamaño de la pila,
la alteración causada por el neutrón incluso irá en aumento hasta la completa
destrucción de la pila. ¿Existe un fenómeno equivalente para las mentes, y se
da también en el caso de las máquinas? En el caso de la mente humana parece
haberlo. La mayoría de los cerebros parecen ser “subcríticos”, es decir, que
corresponden en esta analogía a pilas de tamaño subcrítico. Una idea presentada
a este tipo de mente, no inducirá generalmente más que una idea por respuesta.
Una reducidísima proporción de cerebros son supercríticos. En ellos una idea da
origen a toda una “teoría” formada por ideas secundarias, terciarias y de todo
orden. Las mentes animales parecen decididamente ser subcríticas. Siguiendo la
analogía, nos preguntamos: “¿Se puede hacer que una máquina sea supercrítica?”
La
analogía de la “piel de cebolla” también es válida. Si consideramos las
funciones de la mente o del cerebro, observamos determinadas operaciones
explicables en términos puramente mecánicos. Lo que decimos no es aplicable a
la auténtica mente: es una especie de piel que hay que quitar si queremos verla
realmente. Pero, luego, en lo que queda, encontramos otra piel que hay que
eliminar, y así sucesivamente. Con este método, ¿llegamos con seguridad a la
mente “real”, o simplemente a la piel que no encierra nada? En tal caso toda
mente es mecánica. (De todas formas, hemos explicado ya que no es una máquina
de estado discreto).
Los últimos
párrafos no pretenden ser argumentos convincentes, sino más bien deben tomarse
como «una letanía destinada a inculcar una creencia». El único apoyo realmente
satisfactorio que puede darse a la opinión manifestada al principio del
apartado 6 es el que consiste en esperar a finales de siglo y luego efectuar el
experimento señalado. ¿Pero qué podemos decir entretanto? ¿Qué pasos hemos de
dar ahora para que dé buen resultado el experimento?
Como he dicho, el
problema fundamental estriba en programar. También serán imprescindibles
progresos de ingeniería, pero creo que estarán a la altura de las necesidades.
Las estimaciones de la capacidad de almacenamiento del cerebro oscilan entre 1010 y
1015dígitos binarios. Personalmente me inclino por el valor más
bajo y creo que sólo una pequeña parte se utiliza para los tipos más elevados
de pensamiento. La mayor parte de esta capacidad se emplea seguramente en la
retención de impresiones visuales. Me sorprendería que se necesitara más de 109 para
jugar bien al juego de imitación, en cualquier caso contra un hombre ciego.
(Nota: la capacidad de la Encyclopaedia
Britannica, decimoprimera
edición, es de 2×109). Una capacidad de almacenamiento de
10 7 sería una posibilidad bastante real,
aun con las técnicas actuales. Probablemente no será preciso aumentar la
velocidad de operación de las máquinas. Partes de las máquinas modernas, que
podríamos calificar de auténticas células nerviosas, trabajan mil veces más
rápido que éstas. Con esto se conseguiría un «margen de seguridad» para
compensar pérdidas de velocidad producidas por diversos motivos. El problema
estriba, en último extremo, en saber cómo programar estas máquinas para jugar
al juego. Con mi actual ritmo de trabajo produzco unos mil dígitos de programa
diarios; en consecuencia, unas sesenta personas, trabajando asiduamente durante
cincuenta años, podrían llevar a cabo esta tarea si no traspapelaran nada.
Parece deseable un método más expeditivo.
En el proceso de
intentar la imitación de una mente humana adulta estamos obligados a pensar muy
en serio sobre el proceso por el que se ha llegado al estado en que se halla.
Se observarán tres factores:
1. El estado inicial de la
mente al nacer.
2. La educación que ha tenido.
3. Otras experiencias, aparte de la educación, a que haya estado sometida.
2. La educación que ha tenido.
3. Otras experiencias, aparte de la educación, a que haya estado sometida.
En lugar de intentar
la elaboración de un programa que imite la mente adulta, ¿por qué no establecer
uno que simule la mente infantil? Si luego la sometemos a un curso adecuado de
formación, podría obtenerse un cerebro adulto. Podemos decir que el cerebro
infantil es como el cuaderno recién comprado en una papelería: poco mecanismo y
muchas hojas en blanco. (Mecanismo y escritura son casi sinónimos desde nuestro
punto de vista). Nuestra esperanza se funda en que hay tan poco mecanismo en el
cerebro infantil que debe resultar fácil programar algo similar. Podemos
suponer que la cantidad de trabajo formativo, en una primera aproximación, sea
muy parecida a la aplicable en el caso de un niño.
De este modo, el
problema queda dividido en dos partes: el programa infantil y el proceso
formativo. Ambos estrechamente vinculados. No puede esperarse construir una
buena máquina infantil al primer intento; hay que experimentar enseñando a la
máquina, y comprobar si aprende bien. Luego puede probarse otra vez y ver si es
mejor o peor. Evidentemente existe una clara relación por analogía entre este
proceso y el de la evolución:
Estructura de la máquina
infantil = Material hereditario
Cambios de la máquina infantil = Mutaciones
Selección natural = Juicio del experimentador
Cambios de la máquina infantil = Mutaciones
Selección natural = Juicio del experimentador
Sin embargo, es de
esperar que este proceso sea más expeditivo que el de la evolución. La
supervivencia del más apto es un método lento para valorar las ventajas. El
experimentador, aplicando su inteligencia, debe ser capaz de acelerarlo. De
igual importancia es el hecho de que no está limitado por mutaciones
aleatorias. Si el experimentador descubre la causa de determinada debilidad,
puede probablemente decidir el tipo de mutación que la mejore.
A la máquina no se le
podrá aplicar exactamente el mismo proceso de aprendizaje que a un niño. Ya
que, por ejemplo, no tendrá piernas y no se le podrá ordenar que vaya a por un
cubo de carbón. Seguramente tampoco tendrá ojos. Y por mucho que se compensen
estas deficiencias con una buena ingeniería, no se podrá enviar a la criatura a
la escuela porque sería motivo de burla de sus compañeros. Habrá que darle
clases particulares, sin preocuparnos por las piernas, los ojos, etc. El caso
de Helen Keller demuestra que es posible la labor educativa a condición de que
se establezca una comunicación bilateral entre maestro y alumno por el medio
que sea.
Normalmente asociamos
castigos y recompensas al proceso educativo. Algunas máquinas infantiles
simples pueden construirse o programarse ateniéndose a ese principio. Hay que
construir la máquina de tal modo que los acontecimientos que preceden
brevemente a la aparición de la señal de castigo cuenten con mínimas
posibilidades de repetición, y que, por el contrario, la señal de recompensa
incremente la posibilidad de repetición de secuencias que la motivan. Estas
especificaciones no presuponen tipo de sentimiento alguno por parte de la
máquina. He realizado algunos experimentos con este tipo de máquina infantil y
he logrado enseñarle varias cosas, pero utilicé un método de aprendizaje
excesivamente heterodoxo para que el experimento pueda considerarse un éxito.
El empleo de castigos
y recompensas puede a lo sumo formar parte del proceso de aprendizaje. En
términos generales, si el enseñante no dispone de otros medios de comunicación
con el alumno, la cantidad de información que éste recibe nunca excede el
número de recompensas y castigos. Cuando un niño ha aprendido finalmente a
repetir “Casabianca”, se sentirá probablemente muy afligido si la única manera
de dilucidar el texto es la técnica de las “Veinte preguntas” y cada “NO”
supone una bofetada. Por lo tanto, es necesario disponer de otros canales de
comunicación “no emocionales”. Si los hay, se puede enseñar a una máquina por
el método de premios y castigos a obedecer órdenes dadas en una lengua
determinada, es decir un lenguaje simbólico. Estas órdenes se transmiten por
canales “no emocionales”, y el empleo de dicho lenguaje disminuye notablemente
la cantidad de castigos y premios.
Puede existir
diversidad de opiniones en cuanto a la complejidad adecuada de la máquina
infantil. Puede intentarse una construcción lo más simple posible, coherente
con los principios generales. O puede dotársela de un sistema completo
integrado de inferencia lógica, en cuyo caso el almacenamiento estará
fundamentalmente ocupado por definiciones y proposiciones. Estas proposiciones
serían de diversa índole: hechos bien establecidos, conjeturas, teoremas
matemáticamente demostrables, afirmaciones hechas por una autoridad,
expresiones con forma lógica de proposición pero de valor no creíble. Algunas
proposiciones serían “imperativas”. La máquina estaría construida de forma que,
en cuanto una imperativa se clasificara como “bien establecida”, se produjera
automáticamente la acción apropiada. Como ejemplo, supongamos que el maestro
dice a la máquina: “Ahora haz los deberes”. Esto podría dar lugar a que “El
maestro dice ‘Ahora haz los deberes’” quedara incluido en los hechos bien
establecidos. Otra posibilidad sería: “Todo lo que dice el maestro es cierto”.
Ambas posibilidades combinadas podrían dar por resultado que la imperativa “Ahora
haz los deberes” quedara incluida entre los hechos bien establecidos, lo cual,
con arreglo a la construcción de la máquina, significaría que se inician
realmente los deberes, pero el efecto es muy poco satisfactorio. El proceso de
inferencia que utilice la máquina tiene que satisfacer al lógico más riguroso.
Por ejemplo, no habrá jerarquía de tipos, lo que no significa que no se
produzcan falacias de tipos, semejantes al riesgo de caer por un precipicio no
señalizado. Unos imperativos adecuados (expresados dentro de los sistemas, pero que no formen parte de las reglas del sistema), tales como “No emplees una clase si no es una subclase de las
mencionadas por el maestro”, ejercerían la misma función que un letrero que
indicara: “No acercarse al borde”.
Las imperativas a las
que obedece una máquina sin miembros son necesariamente de índole intelectual,
como en el ejemplo citado (hacer los deberes). Entre dichas imperativas son
importantes las que rigen el orden en que hay que aplicar las reglas del
sistema lógico correspondiente, ya que, en cada fase de la utilización de un
sistema lógico, hay una amplia alternativa de pasos que pueden seguirse para no
transgredir las reglas de ese sistema lógico. Estas opciones marcan la
diferencia entre un razonador brillante y otro torpe, pero no la diferencia
entre uno serio y otro tramposo. Las proposiciones que conducen a las imperativas
de esta clase pueden ser: “Cuando se mencione a Sócrates, utiliza el silogismo
en Bárbara”, o “Si se ha demostrado que un método es más rápido que otro, no
uses el método lento”. Algunas pueden “basarse en una autoridad”, pero otras
puede producirlas la propia máquina por inducción científica, por ejemplo.
La idea de una máquina
que aprende puede parecer paradójica a algunos lectores. ¿Cómo pueden cambiarse
las reglas de operación de la máquina? Estas deben especificar punto por punto
cómo debe reaccionar la máquina independientemente de su historia y al margen
de los cambios que experimente. Por lo tanto, las reglas son bastante
invariables con respecto al tiempo. Y es bien cierto. La explicación de la
paradoja consiste en que las reglas que cambian en el proceso de aprendizaje
son de un tipo menos pretencioso y sólo tienen validez efímera. El lector puede
establecer un paralelismo con la Constitución de los Estados Unidos.
Una característica
importante de la máquina que aprende es la de que el profesor ignora muchas
veces la mayoría de los procesos internos, aunque hasta cierto punto sea capaz
de predecir el comportamiento de su alumno. Esto es tanto más aplicable a la
formación ulterior de una máquina que tenga por origen una máquina infantil con
un diseño (o programa) perfectamente experimentado. Situación muy distinta al
procedimiento normal de emplear una máquina para hacer cálculos, ya que el
objeto, en este caso, consiste en disponer de una imagen mental clara del
estado de la máquina en cada momento de la computación. Este propósito sólo es
alcanzable con una imposición. La opinión de que “la máquina sólo hace lo que
queramos que haga parece extraña a la vista de lo expuesto”. La mayoría de los
programas que podemos introducir en la máquina la hará hacer algo que no
entendemos o que consideramos como comportamiento totalmente aleatorio. El
comportamiento inteligente consiste probablemente en una desviación del
comportamiento absolutamente disciplinado que implica la computación, aunque
relativamente leve y sin que provoque un comportamiento aleatorio o loops
repetitivos inútiles. Otro importante resultado de la preparación de una
máquina para que intervenga en el juego de imitación, merced a un proceso de
enseñanza y aprendizaje, radica en que la “falibilidad humana” suele quedar
descartada de una forma bastante natural, sin necesidad de «entrenamiento»
especial. Los procesos que se aprenden no procuran una certeza absoluta de
resultados; si así fuera, nunca fallaría su aprendizaje.
Quizá convenga
introducir un elemento aleatorio en la máquina que aprende. Un elemento
aleatorio resulta bastante útil en la búsqueda de la solución de un problema.
Supongamos, por ejemplo, que deseamos hallar un número entre 50 y 200 que sea
igual al cuadrado de la suma de sus cifras; empecemos por el 51 y sigamos con
el 52 hasta encontrar la combinación justa. Otra alternativa sería elegir
números al azar hasta hallar uno que nos sirva. Este método presenta la ventaja
de que nos ahorra la necesidad de mantener el registro de los valores que se
han probado, y el inconveniente de que se corre el riesgo de probar dos veces
el mismo número, pero esto no es tan importante si hay varias soluciones. El
método sistemático presenta el inconveniente de que puede haber una serie
enorme sin solución en la región que hay que investigar en primer lugar. El
proceso de aprendizaje puede considerarse como la búsqueda de una forma de
comportamiento que satisfaga al profesor (o cualquier otro requisito). Como
probablemente existe un gran número de soluciones satisfactorias, el método
aleatorio parece mejor que el sistemático. Se advertirá que es el que
interviene en el proceso análogo de la evolución, y que en ella no es posible
el método sistemático. ¿Cómo sería posible conservar el registro de las
distintas combinaciones genéticas ensayadas para evitar probarlas de nuevo?
Esperemos que las
máquinas lleguen a competir con el hombre en todos los campos puramente
intelectuales. ¿Pero cuáles son los mejores para empezar? También es una ardua
decisión. Muchos piensan que lo mejor es una actividad de naturaleza tan
abstracta como jugar al ajedrez. También puede sostenerse que lo óptimo sería
dotar a la máquina de los mejores órganos sensoriales posibles y luego
enseñarla a entender y a hablar inglés. Es un proceso que podría hacerse con
arreglo al aprendizaje normal de un niño: se señalan los objetos, se los
nombra, etc. Vuelvo a insistir en que ignoro la respuesta adecuada; creo que
hay que experimentar los dos enfoques.
Sólo podemos prever el futuro inmediato, pero de lo que no cabe duda es que hay mucho por hacer.»
Sólo podemos prever el futuro inmediato, pero de lo que no cabe duda es que hay mucho por hacer.»
No hay comentarios:
Publicar un comentario
Realiza tu comentario: