Ver Mensaje Individual
Antiguo 30-11-2009 , 19:07:49   #2
PERSEO
Denunciante Ultra
 
Avatar de PERSEO
Me Gusta
Estadisticas
Mensajes: 8.542
Me Gusta Recibidos: 5149
Me Gustas Dados: 4966
Ingreso: 07 may 2009

Temas Nominados a TDM
Temas Nominados Temas Nominados 1
Nominated Temas Ganadores: 0
Reputacion Poder de Credibilidad: 43
Puntos: 46706
PERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foroPERSEO Es un dios del foro
Premios Recibidos

  
Predeterminado Respuesta: Pioneros de la informatica (2ª parte)

Pionero #7: Alan Turing




Alan Mathison Turing podría ser presentado como el precursor de la informática moderna, como uno de los matemáticos más influyentes en la computación, como el padre de la inteligencia artificial, como un gran criptógrafo o incluso, como un ícono de la injusticia social. Debo reconocer que si tuviera que armar yo la lista de pioneros, este hombre nacido en el año 1912 en Inglaterra, ocuparía el primer lugar sin ningún lugar a dudas. Teniendo en cuenta sus extensos e importantes aportes, y la longitud que pretendo de esta sección, vamos por partes para reconocer solo los principales aportes de Turing a nuestro mundo.

Hijo de padres indios, Turing fue el primer en definir claramente el concepto de algoritmo, concepto fundamental en el progreso de la informática a partir de ese momento. Para ello, el matemático creó un modelo computacional denominado “La maquina de Turing“. A través del modelo, demostró que existían ciertos problemas que una máquina no podía resolver y formalizó el concepto de algoritmo. La maquina es un modelo simple, en donde se pueden definir dos acciones posibles (mover un cabezal a la derecha y a la izquierda) y definir un modelo de la siguiente manera:

(estado, valor) \rightarrow (nuevo estado, nuevo valor, dirección)

A través de la máquina, es posible modelizar, cualquier cómputo que un ordenador digital pueda realizar. La máquina de Turing debería ser estudiada y conocida por cada informático del mundo y, principalmente, por cualquier desarrollador que pretenda conocer los conceptos fundamentales de la programación informática.

Quizás con este aporte, Turing habría pasado a la historia y ya estaríamos hablando de él.

Sin embargo, con su especialización matemática en criptografía, Turing fue llamado a colaborar con su país en la Segunda Guerra Mundial y fue un colaborador activo en el descifrado de los códigos que utilizaban los nazis para comunicarse. Sus aportes, fueron fundamentales para el avance de los aliados hacia el fin de la guerra. Específicamente participó en comprender los mensajes cifrados enviados por Enigma, una máquina electromecánica de cifrado rotativo.

Posteriormente, cerca del año 1950, Turing se interesó particularmente en analizar la posibilidad de que las computadoras “piensen”. Para ello, desarrolló una teoría denominada “Test de Turing” (o “prueba de Turing”). Esta consisten en una pequeña prueba en donde una persona realiza preguntas y, en simultaneo, recibe las respuestas de otra persona y de una máquina sin conocer cuál respuesta corresponde a cada uno. Según la teoría, si la persona no es capaz de distinguir las respuestas de la máquina y del humano, se puede afirmar que esa máquina es inteligente. Este modelo es una de las bases de la Inteligencia Artificial y es altamente defendida por aquello que piensan que las máquinas “pueden pensar”.

Evidentemente, los aportes que hizo Turing en su corta vida, fueron extremadamente importantes. Entre las cosas que encontré de él en la Web, en uno de los sitios lo describen como “el hombre que sabía demasiado“. En el año 1952, fue procesado por ser homosexual y condenado a recibir un tratamiento hormonal de reducción de líbido. Este tratamiento le causó innumerables afecciones a su cuerpo y, dos años más tarde, Alan Turing apareció muerto luego de comerse una manzana con cianuro, en lo que claramente fue considerado un suicidio. Este hombre murió abandonado por su propio país. Mejor que yo, lo cuenta Eduardo Galeano en su último libro, “Espejos”:

El papá de las computadoras
Por no ser macho, lo que se dice macho, hombre de pelo en pecho, Alan Turing fue condenado.
Él chillaba, graznaba, tartamudeaba. Usaba una vieja corbata a modo e cinturón. Dormía poco y pasaba días sin afeitarse y corriendo atravesaba las ciudades de punta a punta, mientras mentalmente iba elaborando complicadas fórmulas matemáticas.
Trabajando para la inteligencia británica, unos años atrás, había ayudado a abreviar la segunda guerra mundial cuando inventó la máquina capaz de descifrar los indescifrables códigos del alto mando militar de Alemania.
Para entonces, ya había imaginado un prototipo de computadora electrónica y había echado las bases teóricas de la informática moderna. Después, dirigió la construcción de la primera computadora que operó con programas integrados. Con ella, jugaba interminables partidas de ajedrez y le formulaba preguntas que la volvían loca y le exigía que le escribiera cartas de amor. La máquina obedecía emitiendo mensajes más bien incoherentes.
Pero fueron policías de carne y hueso los que en 1952 se lo llevaron preso, en Manchester, por indecencia grave.
Sometido a juicio, Turing se declaró culpable de homosexualidad.
Para que lo dejaran libre, aceptó comenterse a un tratamiento de curación.
El bombardeo de drogas lo dejó impotente. Le crecieron tetas. Se encerró. Ya no iba a la universidad. Escuchaba murmullos, sentía miradas que lo fusilaban por la espalda.
Antes de dormir, era costumbre, comía una manzana.
Una noche, inyectó cianuro en la manzana que iba a comer.

Pionero #6: Gordon Moore




La ley de Moore, es una ley empírica que manifestó el mismo Gordon Earl en el año 1965. Una ley empírica, significa que ésta, se basa en la experiencia y no en investigaciones científicas. Moore indicó que el crecimiento de la tecnología sería constante y, en particular, que el número de transistores en los circuitos integrados se duplicaría a cada año. La ley, publicada en su momento en la revista “Electronics”, fue actualizada por el autor diez años después, en 1975, cuando indicó que sería cada dos años que se doblarían el número de transistores.

Tres años después de publicar su ley, Gordon fundó, junto a Robert Noyce (pionero #, la empresa Intel Corporation.

Las declaraciones de Moore a la revista, fueron simplemente una forma de graficar, en ese entonces, la importancia y el crecimiento que tendría la tecnología a futuro. Sin embargo, y a pesar de que el autor consideró que su ley sería válida durante dos décadas más, la misma se ha convertido en el eje del desarrollo de procesadores para ordenadores y se ha cumplido durante más de cuatro décadas.

Su propia ley, fue la base que utilizó Intel para la evolución de los ordenadores. Paralelamente al crecimiento en el número de transistores, y tal como lo anunció Moore, el costo de los ordenadores ha disminuído considerablemente a lo largo de la historia.

Para ejemplificar el cumplimiento de su ley, se pueden observar los números de transistores en tres modelos de procesadores Intel:

* Intel 4004 - año 1970 - 2.100 transistores
* Intel 8086 - año 1979 - 29.000 transistores
* Intel Pentium III - año 1999 - 8.200.000 de transistores

Gordon Moore es, entre otras cosas, el co-fundador de Intel, la empresa líder en la fabricación de micro-procesadores. Sin embargo, su aparición en los pioneros de la informática se debe fundamentalmente a ser el creador de la Ley de Moore.

La ley de Moore marcó el rumbo del crecimiento de la tecnología y los ordenadores a lo largo de la historia. Más allá que el autor haya anunciado que la ley dejará de cumplirse “en 10 o 15 años”, siempre será el eje sobre la construcción de procesadores por más de 50 años. Para graficar su importancia, dejo una analogía que se puede encontrar en el artículo de la Wikipedia sobre la ley:

En 1978, un vuelo comercial entre Nueva York y París costaba cerca de 900 dólares y tardaba 7 horas. Si se hubieran aplicado los mismos principios de la Ley de Moore a la industria de la aviación comercial de la misma forma que se han aplicado a la industria de los semiconductores desde 1978, ese vuelo habría costado cerca de un centavo de dólar y habría tardado menos de 1 segundo en realizarse.


Pionero #5: Jack Kilby




Jack St. Clair Kilby nació el 8 de Noviembre de 1923 en Jefferson (Estados Unidos) y fue el padre de los microchips y la microelectrónica.

De carrera Ingeniero Electrónico (Universidad de Illinois y master en la de Wisconsin), sus descubrimientos físicos y electrónicos, sentaron las bases de los procesadores de los ordenadores. En sus palabras, el nunca imaginó mientras avanzaba en sus descubrimientos, la magnitud de estos: “Yo creí entonces que el microprocesador sería importante, pero no podía imaginar en qué forma crecería la industria electrónica debido a él”. Por sus méritos, Kilby fue galardonado con el Premio Nóbel de Física en el año 2000. Aunque parezca un dato normal y corriente, cabe recordar que Kilby recibió el Nóbel en Física sin ser físico. Cuenta la historia que el Instituto Tecnológico de Massachusetts rechazó a Kilby por sus bajas notas en matemática.

Las investigaciones las realizó bajo la responsabilidad de la empresa para la que trabajaba desde el año 1958, Texas Instruments. El microchip fue desarrollado un año más tarde, en 1959. Durante su carrera, Jack patentó más de 60 descubrimientos que fueron incorporados a la industria.

El microchip es un circuito integrado en una lámina de material semiconductor, por lo general silicio. La incorporación del silicio en un único chip (en reemplazo de los tubos de vacío) es la base del descubrimiento de Kilby, que cambió el desarrollo de los ordenadores en la historia y permitió la creación de los microprocesadores. Durante las primeras investigaciones, además de silicio utilizaban germanio, otra alternativa como material semi-conductor de corriente en procesadores. Desde la evolución de la informática, quizás sea este el descrubrimiento más importante de la segunda mitad del siglo XX.

Jack Kilby murió de cáncer un 23 de Junio de 2005, a los 81 años de edad.

En el salón de la Fama de Inventores Estadounidenses, su retrato reposa junto al de Edison. Podemos citar par resumir su importancia en la informática, palabras de la Real Academia Sueca de Ciencias: “Sin Kilby, no hubiera podido ser posible el construir las computadoras personales que tenemos ahora”.

PERSEO no está en línea   Responder Citando
 
Page generated in 0,09153 seconds with 11 queries