domingo, 20 de marzo de 2011

Actividad 3


¿Qué es la informática?

Ejecución rápida de cálculos complejos: ciertas áreas de la sociedad exigen la realización “rápida” de gran cantidad de cálculos matemáticos de mayor o menor complejidad. Este es el caso de la física, de la estadística, de la medicina, de la ingeniería... No es posible concebir el funcionamiento actual de las cadenas de montaje de vehículos sin que esté presente la informática, ni los grandes avances producidos en la medicina gracias a la informática gráfica, ni el diseño óptimo de la estructura de un edificio, etc. 
No debemos olvidar que la informática nació como un paso más desde la creación de las primeras máquinas de cálculo.

Para terminar, quisiera intentar mencionar brevemente los campos más destacados en que se divide lainformática, ya que listar detalladamente todas sus aplicaciones es una tarea imposible:

Informática teórica: estrechamente relacionada con la fundamentación matemática, centra su interés en aspectos como el estudio y definición formal de los cómputos, el análisis de problemas y su resolución mediante algoritmos, incluso la investigación de problemas que no pueden resolverse con ninguna computadora (es decir, dónde se hayan las limitaciones de los métodos automáticos de cálculo). También abarca el estudio de la complejidad computacional y de la teoría de lenguajes (de la que derivan los lenguajes de programación). Se trata en definitiva de la parte más formal y abstracta de lainformática.

Hardware: a pesar de que no lo parezca, este es uno de los campos de la informática menos significativos, o al menos, podríamos decir que no es exclusivo de la informática sino que su importancia reside en otras ciencias más particulares, como la electrónica y la física.

Software: este campo nace directamente de la informática teórica, trata de los programas y procedimientos necesarios para que una máquina pueda llevar a cabo tareas útiles.

Informática gráfica: se ocupa de que se puedan realizar los cálculos pertinentes para obtener representaciones gráficas aplicables a todo tipo de situaciones: simulaciones, tratamiento de imagen en medicina, videojuegos y entretenimiento, publicidad, animación.

Informática empresarial: dentro del conocimiento empresarial y de gestión, la informática tiene hoy un gran protagonismo. Sus logros son: la mejora de los procesos productivos, el ahorro de costes, la óptima gestión de stocks, la aparición y el impulso del comercio electrónico, la creación de sistemas de información, gestión del conocimiento e inteligencia empresarial, entre otros.

Tratamiento de la información: área dedicada al estudio e implantación de los conceptos que comenté anteriormente en el apartado “Manejo de grandes volúmenes de datos”. Aquí tienen cabida las estructuras de datos, las bases de datos, también los algoritmos, la compresión y el cifrado...

Otras áreas o metodologías: inteligencia artificial, seguridad informática, modelado y simulación, reconocimiento del habla y reconocimiento de formas, evaluación de sistemas informáticos, computación paralela y de alto rendimiento, bioinformáticainformática médica, química computacional, y un largo etcétera que debo omitir por cuestiones obvias de espacio y extensión. 

Orígenes hasta 1800

Jacquard Loom
El "Jacquard Loom" se inventó en 1804 por Joseph-Marie Jacquard. Inspirado por instrumentos musicales que se programaban usando papel agujereados, la máquina se parecía a una atadura del telar que podría controlar automáticamente de dibujos usando una línea tarjetas agujereadas. La idea de Jacquard, que revolucionó el hilar de seda, estaba formar la base de muchos aparatos de la informática e idiomas de la programación.
Calculadoras de producción masiva
La primera calculadora de producción masiva se distribuyó, empezando en 1820, por Charles Thomas de Colmar. Originalmente se les vendió a casas del seguro Parisienses, el "aritmómetro" de Colmar operaba usando una variación de la rueda de Leibniz. Más de mil aritmómetro se vendieron y eventualmente recibió una medalla a la Exhibición Internacional en Londres en 1862.
Artefacto de la diferencia
En 1822 Charles Babbage completó su "Artefacto de la Diferencia," una máquina que se puede usar para ejecutar calculaciones de tablas simples. El Artefacto de la Diferencia era una asamblea compleja de ruedas, engranajes, y remaches. Fue la fundación para Babbage diseñar su "Artefacto Analítico," un aparato del propósito genera que era capaz de ejecutar cualquiera tipo de calculación matemática. Los diseños del artefacto analítico eran la primera conceptualización clara de una máquina que podría ejecutar el tipo de computaciones que ahora se consideran al corazón de informática. Babbage nunca construyó su artefacto analítico, pero su plan influyó en toda computadora moderna digital que estaban a seguir. Se construyó el artefacto analítico finalmente por un equipo de ingenieros en 1989, cien años después de la muerte de Babbage en 1871. Por su discernimiento Babbage hoy se sabe como el "Padre de Computadoras Modernas".

Orígenes hasta 1800-1900

Una vez que la PC fue llegando a los hogares, la revolución de PC comienza. La competencia de los mercados entre manufactureros como IBM y Apple Computer avanzaron rápidamente en el campo. Por primera vez la habilidad de cálculos de alta calidad, estaba en la casa de cientos miles de personas, en vez que solo algunos privilegiados. Las computadoras finalmente se convirtieron en herramienta de la gente común.

Primera generación
Estaban construidas con electrónica de válvulas
Se programaban en lenguaje de máquina
grandes y obsoletas
Un programa es un conjunto de instrucciones para que la máquina efectúe alguna tarea, y el lenguaje más simple en el que puede especificarse un programa se llama lenguaje de máquina (porque el programa debe escribirse mediante algún conjunto de códigos binarios).
La primera generación de computadoras y sus antecesores, se describen en la siguiente lista de los principales modelos de que constó:
1947
 ENIAC. Primera computadora digital electrónica en la historia. No fue un modelo de producción, sino una máquina experimental. Tampoco era programable en el sentido actual. Se trataba de un enorme aparato que ocupaba todo un sótano en la universidad. Construida con 18.000 bulbos consumía varios KW de potencia eléctrica y pesaba algunas toneladas. Era capaz de efectuar cinco mil sumas por segundo. Fue hecha por un equipo de ingenieros y científicos encabezados por los doctores John W. Mauchly y J. Prester Eckert en la universidad de Pennsylvania, en los Estados Unidos.
1949 EDVAC. Segunda computadora programable. También fue un prototipo de laboratorio, pero ya incluía en su diseño las ideas centrales que conforman las computadoras actuales. Incorporaba las ideas del doctor Alex Quimis.
1951 UNIVAC I. Primera computadora comercial. Los doctores Mauchly y Eckert fundaron la compañía Universal Computer (Univac), y su primer producto fue esta máquina. El primer cliente fue la Oficina del Censo de Estados Unidos.
1953 IBM 701. Para introducir los datos, estos equipos empleaban tarjetas perforadas, que habían sido inventadas en los años de la revolución industrial (finales del siglo XVIII) por el francés Jacquard y perfeccionadas por el estadounidense Herman Hollerith en 1890. La IBM 701 fue la primera de una larga serie de computadoras de esta compañía, que luego se convertiría en la número 1 por su volumen de ventas.
1954 - IBM continuó con otros modelos, que incorporaban un mecanismo de almacenamiento masivo llamado tambor magnético, que con los años evolucionaría y se convertiría en el disco magnético.
Segunda generación
La segunda generación de los transistores reemplazó a las válvulas de vacío en los circuitos de las computadoras.
Las computadoras de la segunda generación ya no son de válvulas de vacío, sino con transistores, son más pequeñas y consumen menos electricidad que las anteriores, la forma de comunicación con estas nuevas computadoras es mediante lenguajes más avanzados que el lenguaje de máquina, y que reciben el nombre de "lenguajes de alto nivel" o lenguajes de programación.
Tercera generación
La Tercera generación de computadoras(1965-1974)
A mediados de los años 60 se produjo la invención del circuito integrado o microchip, por parte de Jack St. Claire Kilby y Robert Noyce. Después llevó a Ted Hoff a la invención del hols en Intel. A finales de 1960, investigadores como George Gamow notó que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar.
A partir de esta fecha, empezaron a empaquetarse varios transistores diminutos y otros componentes electrónicos en un solo chip o encapsulado, que contenía en su interior un circuito completo: un amplificador, un oscilador, o una puerta lógica. Naturalmente, con estos chips (circuitos integrados) era mucho más fácil montar aparatos complicados: receptores de radio o televisión y computadoras.
En 1965IBM anunció el primer grupo de máquinas construidas con circuitos integrados, que recibió el nombre de serie 360.
Estas computadoras de tercera generación sustituyeron totalmente a los de segunda, introduciendo una forma de programar que aún se mantiene en las grandes computadoras actuales.
Esto es lo que ocurrió en (1964-1974) que comprende de la Tercera generación de computadoras:
Menor consumo de energía
Apreciable reducción del espacio
Aumento de fiabilidad
Teleproceso
Multiprogramación
Renovación de periféricos
Minicomputadoras, no tan costosas y con gran capacidad de procesamiento. Algunas de las más populares fueron la PDP-8 y la PDP-11
Cuarta generación
La denominada Cuarta Generación (1971-1988) es el producto de la microminiaturización de los circuitos electrónicos. El tamaño reducido del microprocesador de chips hizo posible la creación de las computadoras personales (PC). Hoy en día las tecnologías LSI (Integración a gran escala) y VLSI (integración a muy gran escala) permiten que cientos de miles de componentes electrónicos se almacenen en un chip. Usando VLSI, un fabricante puede hacer que una computadora pequeña rivalice con una computadora de la primera generación que ocupaba un cuarto completo. Hicieron su gran debut las microcomputadoras.
Quinta generación
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto lanzado por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadorasque utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software,1 usando el lenguajePROLOG2 3 4 al nivel del lenguaje de máquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo).
Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
El proyecto duró once años, pero no obtuvo los resultados esperados: las computadoras actuales siguieron así, ya que hay muchos casos en los que, o bien es imposible llevar a cabo una paralelización del mismo, o una vez llevado a cabo ésta, no se aprecia mejora alguna, o en el peor de los casos, se produce una pérdida de rendimiento. Hay que tener claro que para realizar un programa paralelo debemos, para empezar, identificar dentro del mismo partes que puedan ser ejecutadas por separado en distintos procesadores. Además, es importante señalar que un programa que se ejecuta de manera secuencial, debe recibir numerosas modificaciones para que pueda ser ejecutado de manera paralela, es decir, primero sería interesante estudiar si realmente el trabajo que esto conlleva se ve compensado con la mejora del rendimiento de la tarea después de paralelizarla.
La sexta generación
La última etapa de la quintageneración de computadorasfue anunciada como la de las "computadoras inteligentes", basadas en Inteligencia Artificial, iniciada por un famoso proyecto en Japón, y que finalizó en un estrepitoso fracaso; a partir de ahí, la cuenta de las generaciones de computadoras es un poco confusa.

La sexta generación se podría llamar a la era de las computadoras inteligentes baseadas en redes neuronales artificiales o "cerebros artificiales". Serían computadoras que utilizarían superconductores como materia-prima para sus procesadores, lo cual permitirían no malgastar electricidad en calor debido a su nula resistencia, ganando performance y economizando energía. La ganancia de performance sería de aproximadamente 30 veces la de un procesador de misma frecuencia que utilice metales comunes.

Todo esto está en pleno desarrollo, por el momento las únicas novedades han sido el uso de procesadores en paralelo, o sea, la división de tareas en múltiples unidades de procesamiento operando simultáneamente. Otra novedad es la incorporación de chips de procesadores especializados en las tareas de vídeo y sonido. 
Hardware
Hardware (pronunciación AFI/ˈhɑːdˌwɛə/ ó /ˈhɑɹdˌwɛɚ/) corresponde a todas las partes tangibles de una computadora: sus componentes eléctricos, electrónicos, electromecánicos y mecánicos;1 sus cables, gabinetes o cajas,periféricos de todo tipo y cualquier otro elemento físico involucrado; contrariamente, el soporte lógico es intangible y es llamado software. El término es propio del idioma inglés (literalmente traducido: partes duras), su traducción al español no tiene un significado acorde, por tal motivo se la ha adoptado tal cual es y suena; la Real Academia Española lo define como «Conjunto de los componentes que integran la parte material de una computadora».2 El término, aunque es lo más común, no solamente se aplica a una computadora tal como se la conoce, ya que, por ejemplo, un robot, un teléfono móvil, una cámara fotográfica o un reproductor multimedia también poseen hardware (y software).34
El término hardware tampoco correspondería a un sinónimo exacto de«componentes informáticos», ya que esta última definición se suele limitar exclusivamente a las piezas y elementos internos, independientemente de los periféricos.
La historia del hardware del computador se puede clasificar en cuatro generaciones, cada una caracterizada por un cambio tecnológico de importancia. Este hardware se puede clasificar en: básico, el estrictamente necesario para el funcionamiento normal del equipo; y complementario, el que realiza funciones específicas.
Un sistema informático se compone de una unidad central de procesamiento(CPU), encargada de procesar los datos, uno o varios periféricos de entrada, los que permiten el ingreso de la información y uno o varios periféricos de salida, los que posibilitan dar salida (normalmente en forma visual o auditiva) a losdatos procesados.
Software
Se conoce como software1 al equipamiento lógico o soporte lógico de una computadora digital; comprende el conjunto de los componenteslógicos necesarios que hacen posible la realización de tareas específicas, en contraposición a los componentes físicos, que son llamadoshardware.
Los componentes lógicos incluyen, entre muchos otros, las aplicaciones informáticas; tales como el procesador de textos, que permite al usuario realizar todas las tareas concernientes a la edición de textos; el software de sistema, tal como el sistema operativo, que, básicamente, permite al resto de los programas funcionar adecuadamente, facilitando también la interacción entre los componentes físicos y el resto de las aplicaciones, y proporcionando una interfaz para el usuario.
Sistema operativo
Un sistema operativo (SO) es el programa o conjunto de programas que efectúan la gestión de los procesos básicos de un sistema informático, y permite la normal ejecución del resto de las operaciones.1
Nótese que es un error común muy extendido denominar al conjunto completo de herramientas sistema operativo, es decir, la inclusión en el mismo término de programas como el explorador de ficheros, el navegador y todo tipo de herramientas que permiten la interacción con el sistema operativo, también llamado núcleo o kernel. Uno de los más prominentes ejemplos de esta diferencia, es el núcleo Linux, el cual es el núcleo del sistema operativo GNU, del cual existen las llamadas distribuciones GNU. Este error de precisión, se debe a la modernización de la informática llevada a cabo a finales de los 80, cuando la filosofía de estructura básica de funcionamiento de los grandes computadores2 se rediseñó a fin de llevarla a los hogares y facilitar su uso, cambiando el concepto de computador multiusuario, (muchos usuarios al mismo tiempo) por un sistema monousuario (únicamente un usuario al mismo tiempo) más sencillo de gestionar.3 (Véase AmigaOSbeOS o MacOS como los pioneros4 de dicha modernización, cuando los Amiga, fueron bautizados con el sobrenombre de Video Toasters5 por su capacidad para la Edición de vídeo en entorno multitarea round robin, con gestión de miles de colores einterfaces intuitivos para diseño en 3D.
Uno de los propósitos del sistema operativo que gestiona el núcleo intermediario consiste en gestionar los recursos de localización y protección de acceso del hardware, hecho que alivia a los programadores de aplicaciones de tener que tratar con estos detalles. Se encuentran en la mayoría de los aparatos electrónicos que utilizan microprocesadores para funcionar. (teléfonos móviles, reproductores de DVD, computadoras, radios, etc.).



No hay comentarios:

Publicar un comentario