jueves, 23 de junio de 2011

La singularidad Tecnológica

¿Que es la singularidad?
Es una teoría que predice que llegará un día en un futuro indeterminado (pero no muy lejano) en el que los ordenadores tendrán la capacidad de diseñar otros ordenadores mejor que un ser humano. En principio no parece gran cosa, pero si pensamos que el ordenador en cuestión era diseñado por los propios humanos, entonces los nuevos ordenadores también serán mejores que el ordenador original y los propios humanos, y podrán crear a su vez otros aun mejores. Así podemos entrar en una cadena en la que ordenadores crean otros ordenadores mejores que a su vez crean otros aun mejores, etcétera. Es decir, un punto en que se pierde el control, y tal vez la capacidad de comprender como evolucionan estos ordenadores. La Inteligencia Artificial aumentaría de forma geométrica. Muchas veces se dice que el dia en que el hombre invente este ordenador, sera el último invento de la humanidad.

Este hecho se le llama singularidad por analogía a la singularidad que estudian los físicos. Dentro de estas singularidades, las leyes de la física conocida dejan de ser validas (se supone que existe una singularidad en el interior de los agujeros negros, y también en el origen del Big Bang). De la misma forma, llegado al punto de la Singularidad Tecnológica, es imposible hacer ningún tipo de especulación sobre lo que ocurre después. Es un terreno desconocido. Pero si que podemos especular como se puede llegar a esa situación desde donde estamos. Esta es precisamente la parte más interesante y a la que se están dedicando más esfuerzos de investigación


¿Y este momento está cerca?

Pues depende de quien opine, claro. Algunos defienden que esta cerca, dado el ritmo en que esta evolucionando la informática e Internet, otros lo ven lejano y otros opinan que no ocurrirá nunca. Yo me voy a centrar en los que opinan que está cerca. Aún así, no es algo nuevo, el primero en hacer referencia a la singularidad fue Irving J. Good en 1965 en el artículo "Speculations Concerning the First Ultraintelligent Machine." Advances in Computers, Vol. 6.

Otra figura importante es Raymond Kurzweil, experto en Inteligencia Artificial. Kurzweil desarrolla la idea de base y utilizando la Ley de Moore (enunciada en 1965 por Gordon E. Moore, buen año por lo que parece) que predice un crecimiento exponencial en potencia de calculo y capacidad de los ordenadores, desarrolla su visión en la que predice que en este siglo XXI se fusionarán hombre y máquina (entre otras cosas).
Kurzweil es famoso porque sus predicciones tecnológicas se han cumplido mayoritariamente. Sus ideas están ampliamente desarrolladas en su libro La Singularidad está cerca (2005). 
Acontinuacion les mostraré unos videos de la singularidad tecnologica

Parte 1


Parte 2



Parte 3





miércoles, 1 de junio de 2011

Estructura de un Compilador y de un Intérprete

Estructura de un Compilador:


   El primero de ellos es el preprocesador, es el encargado de transformar el código fuente de entrada original en el código fuente puro. Es decir en expandir las macros, incluir las librerías, realizar un preprocesado racional (capacidad de enriquecer a un lenguaje antiguo con recursos más modernos), extender el lenguaje y todo aquello que en el código de entrada sea representativo de una abreviatura para facilitar la escritura del mismo.

mapa001.gif (1837 bytes)
   El segundo modulo es el de compilación que recibe el código fuente puro, este es él modulo principal de un compilador, pues si ocurriera algún error en esta etapa el compilador no podría avanzar. En esta etapa se somete al código fuente puro de entrada a un análisis léxico gráfico, a un análisis sintáctico, a un análisis semántico, que construyen la tabla de símbolos, se genera un código intermedio al cual se optimiza para así poder producir un código de salida generalmente en algún lenguaje ensamblador.

mapa002.gif (1845 bytes)
   El tercer modulo es el llamado modulo de ensamblado, este modulo no es ni más mi menos que otro compilador pues recibe un código fuente de entrada escrito en ensamblador, y produce otro código de salida, llamado código binario no enlazado. Si por un momento viéramos a este modulo como un programa independiente, veríamos que en este caso los términos programa compilador y proceso de compilación son los mismos. Pues este modulo no es mas que un compilador, que en su interior realiza como su antecesor un análisis léxico gráfico, un análisis sintáctico, un análisis semántico, crea una tabla de símbolos, genera un código intermedio lo optimiza y produce un código de salida llamado código binario no enlazado, y a todo este conjunto de tares se los denomina proceso de compilación. Como se puede ver este compilador (llamado ensamblador) a diferencia de los demás compiladores no realiza una expansión del código fuente original(código fuente de entrada), tiene solamente un proceso de compilación y por supuesto no enlaza el código fuente. Es un compilador que carece de los módulos de preprocesado y enlazado, y donde los módulos de compilación y ensamblado son los mismos.

mapa003.gif (1844 bytes)
   El cuarto y ultimo modulo es el encargado de realizar el enlazado del código de fuente de entrada (código maquina relocalizable) con las librerías que necesita, como así también de proveer al código de las rutinas necesarias para poder ejecutarse y cargarse a la hora de llamarlo para su ejecución, modifica las direcciones relocalizables y ubica los datos en las posiciones apropiadas de la memoria. Este ultimo modulo es el que produce como salida el código binario enlazado. Ya sea dinámico o estático, al decir dinámico se refiere a que el código producido utiliza librerías dinámicas (librerías ya cargadas en el sistema), esto implica que se obtendrá un código más corto y que se actualizara automáticamente si aparece alguna nueva versión de las librerías, mientras que el estático se refiere al echo que no se realiza enlace con ninguna librería y por lo tanto se obtendrá un código mas largo con una copia de las rutinas de librería que necesita.

mapa004.gif (1846 bytes)

Estructura de un intérprete.-
 


En la figura se representa el esquema general de un intérprete puro. Se puede observar que el
lenguaje fuente se traduce a una representación interna (texto o binaria) que puede ser almacenada en
memoria o en disco. Esta representación interna tiene todas las instrucciones numeradas o colocadas
consecutivamente en estructuras de tamaño fijo (por ejemplo un array o posiciones consecutivas de
memoria, o un fichero binario de estructuras de tamaño fijo). Mientras se realiza este paso se puede
construir la tabla de símbolos o etiquetas, que es una tabla que contiene una estructura donde están
todas las etiquetas y su posición en el programa fuente (las etiquetas se utilizan tanto en las instrucciones
de salto como en las llamadas a procedimientos y funciones). Una vez que este proceso ha finalizado,
comienza la ejecución por la primera instrucción del código, que se envía al evaluador de instrucciones,
éste la ejecuta (recibiendo datos si es necesario o enviando un mensaje de error). El evaluador de
instrucciones también determina la instrucción siguiente a ejecutar, en algunos casos previa consulta a la
tabla de etiquetas. En caso de que no haya saltos (GOTO) se ejecuta la siguiente instrucción a la
instrucción en curso.


CLASES DE COMPILADORES

  • Compiladores cruzados: generan código para un sistema distinto del que están funcionando.
  • Compiladores optimizadores: realizan cambios en el código para mejorar su eficiencia, pero manteniendo la funcionalidad del programa original.
  • Compiladores de una sola pasada: generan el código máquina a partir de una única lectura del código fuente.
  • Compiladores de varias pasadas: necesitan leer el código fuente varias veces antes de poder producir el código máquina.
  • Compiladores JIT : forman parte de un interprete y compilan partes del código según se necesitan.