Páginas

jueves, 21 de febrero de 2013

Inteligencia Artificial: Fuerte vs Débil

Por muchos años, la inteligencia artificial ha tenido promesas incumplidas. Sus avances, aunque interesantes, aún no son definitivos a la hora de emular o capturar la esencia de la inteligencia humana. La pregunta: ¿Qué tipo de IA podremos conseguir? sigue vigente. Mi opinión es, que la inteligencia artificial fuerte es posible; y estamos cerca de lograrla. Probablemente dentro de las próximas 2 décadas, con el consiguiente inicio de la denominada Singularidad Tecnológica.
 Los argumentos que respaldan mi afirmación vienen principalmente de las diferentes investigaciones que buscan entender el funcionamiento del cerebro humano, ya sea por medio de ingeniería inversa [1], [2] y [3], o por medio de modelos computacionales basados en descubrimientos neurobiológicos [4], [5] y [6], que tienen como objetivo producir una simulación del cerebro humano que manifieste inteligencia. Estamos en una época en que ambas líneas de trabajo son factibles gracias al poder computacional y avances tecnológicos disponibles.
Pero surge la pregunta: ¿No nos desilusionaremos de nuevo? ¿No será un callejón sin salida? ¿No habrá una esencia metafísica responsable de nuestra inteligencia? Las evidencias parecen indicar que no somos tan especiales como se creía. Actualmente la zona del cerebro que está recibiendo mucha atención de los investigadores es la neocorteza, una zona propia de los mamíferos, evolutivamente reciente y que parece mostrar una estrecha relación con el hecho de que a mayor neocorteza, más inteligente es el animal. 
Vernont Mountcastle en los 50's fue el primero en descubrir y caracterizar la morfología de la neocorteza a partir de pequeñas microcolumnas de neuronas con una gran uniformidad a lo largo de toda su superficie. Mountcastle concluyó que toda la corteza debe operar de forma similar y su unidad computacional sería la microcolumna [7], esto implicaría que debe existir un algoritmo cortical común, bajo el cual opere la neocorteza, este algoritmo sería la fuente de la inteligencia. Jeff Hawkins ha trabajado en esta línea, tratando de proponer una teoría de cómo sería este algoritmo cortical común, la cual denomina el marco de memoria predictiva [4], [6] y [8], en base a esta teoría, Hawkins está buscando implementar un modelo computacional que realmente capture la esencia de la inteligencia humana.
Si el marco de memoria predictiva resulta estar en lo cierto, éste explicaría por qué la inteligencia artificial como rama ha tardado tanto en lograr su objetivo; la conclusión seria algo amarga, todo este tiempo se estuvo buscando en el lugar equivocado. Una analogía que explica mejor esta conclusión la podríamos encontrar en la idea de hardware y software, para lograr inteligencia se debió tratar de entender y modelar el hardware cerebral desde el principio, mientras que los esfuerzos de la inteligencia artificial apuntaron a entender y modelar los diferentes tipos de software que el cerebro humano puede aprender y correr. Las razones de esta confusión podrían deberse a la época en la que nació la disciplina, las neurociencias estaban en un estado rudimentario debido a las limitaciones computacionales y tecnológicas del momento. Además, está el hecho engañoso de que en el cerebro, el software altera, hasta cierto punto, el hardware debido a la neuroplasticidad [9], lo que hace que con el tiempo surjan zonas del cerebro especializadas en diferentes funciones. En casos extremos, las zonas especializadas del cerebro se pueden reentrenar para efectuar otras tareas, por ejemplo cuando una persona queda ciega, la zona auditiva en el cerebro se expande con la consiguiente mejora en el reconocimiento de patrones sonoros, lo que cual es consistente con la conjetura del algoritmo cortical común siendo usado para otro propósito y no algoritmos diferentes por cada zona funcional.
Finalmente, la evidencia apunta a que la mente es producto del cerebro físico, el argumento va en el sentido de que se puede dañar o destruir diferentes características de la mente como consecuencia de lesiones físicas en el cerebro [9], probablemente el concepto de mente tenga que cambiar, dejando atrás la idea de una esencia metafísica estática para dar paso a la idea de un proceso dinámico constructivo que corre a lo largo de toda la existencia del cerebro físico [10]. Los casos de niños salvajes criados en completa ausencia de la civilización, son un claro ejemplo de lo dinámico del proceso [10] y [11].

Referencias
[1] H. Markram. Blue Brain Project. [Online]. http://bluebrain.epfl.ch/
[2] H. Markran. TED: Ideas worth Spreading. [Online]. http://www.ted.com/talks/henry_markram_supercomputing_the_brain_s_secrets.html
[3] S. Seung. TED: Ideas worth Spreading. [Online]. http://www.ted.com/talks/lang/en/sebastian_seung.html
[4] J. Hawkins, On Intelligence., 2004.
[5] D. George, How The Brain Might Work: A Hierarchical and Temporal Model for Learning and Recognition, 2008, Doctoral Dissertation.
[6] D. George and J. Hawkins, "Towards a Mathematical Theory of Cortical Micro-circuits," PLoS Computational Biology, 2009.
[7] V. Mountcastle and G. Edelman, An Organizing Principle for Cerebral Function: The Unit Model and the Distributed System.: MIT Press, 1978.
[8] J. Hawkins and Numenta. (2011) Numenta, Inc. [Online]. http://www.numenta.com/htm-overview/education/HTM_CorticalLearningAlgorithms.pdf
[9] J. Medina, Brain Rules: 12 Principles for Surviving and Thriving at Work, Home, and School., 2009.
[10] J. Medina, Brain Rules for Baby: How to Raise a Smart and Happy Child from Zero to Five., 2011.
[11] Wikipedia. [Online]. http://en.wikipedia.org/wiki/Feral_child

No hay comentarios:

Publicar un comentario