HARDWARE
El termino hardware hace referencia a todo componente físico tecnológico que trabaja de algún modo con un computador, este puede ser interno y externo.
El hardware va de la mano con el software que es tangible y le da la lógica al hardware para su funcionamiento correcto, ejecutándose sobre este.
El hardware no es frecuentemente cambiado, como el software que puede ser modificado.
Hardware de un computador:
Board
memoria ram, procesador
disco duro, CD-ROM, tarjeta de sonido, módem, tarjetas de red
fuentes de alimentación
SATA, IDE,SCSI
controladores de vídeo
mause, teclado, escaner webcam, micrófono, parlante, monitor entre otros...
EVOLUCIÓN DE HARDWARE
PRIMERA GENERACIÓN (1944-1955)
Las computadoras eran de válvulas de vacío, las cuales son componentes electrónicos utilizados para amplificar, conmutar o modificar una señal eléctrica mediante el movimiento de electrones en un espacio “ vació” a muy baja presión o en presencia de gases seleccionados; estas computadoras empleaban este tipo de válvulas para procesar información, los operadores introducían datos por medio de tarjetas perforadas, el almacenamiento interno se realizaba gracias a un tambor que giraba rápidamente, sobre el cual un dispositivo de lectura – escritura colocaba marcas magnéticas, estas computadoras eran mucho más grandes y producían más calor que las que conocemos actualmente. Además en esta primera generación las computadoras se programaban en lenguaje de maquina el cual debía escribirse mediante una combinación de números binarios.
SEGUNDA GENERACIÓN (1954-1964)
Esta generación de las computadoras se caracterizo por la invención del transistor, este transistor era de tipo bipolar y fue inventado en los laboratorios Bell de EE.UU en diciembre de 1947, el transistor consta de un sustrato (usualmente silicio) el cual es un elemento químico metaloide, el segundo más abundante en la corteza terrestre, este se presenta en forma amorfa y cristalizada; en esta generación las computadoras se programaban con un lenguaje de alto nivel el cual se caracteriza por expresar algoritmos de una manera adecuada a la capacidad cognitiva del ser humano en lugar de la capacidad ejecutora de las maquinas.
TERCERA GENERACIÓN (1965-1974)
A mediados de los años 60 se produjo la invención del circuito integrado o microchip el cual es una pastilla pequeña de silicio el cual mencionábamos anteriormente de algunos milímetros cuadrados y sobre el cual se fabrican circuitos eléctricos con base a dispositivos constituidos por semiconductores y está aislado por plástico o cerámica, este encapsulado posee conductores metálicos para la conexión entre la pastilla y el circuito eléctrico; la invención de este circuito integrado se debe a Jack St, Claire Kilby y Robert Noyce. Después Ted Hoff invento el microprocesador que es también un circuito integrado; a finales de los 60 George Gamow noto que las secuencias de nucleótidos en el ADN formaban un código, otra forma de codificar o programar. A partir de esta fecha empezaron a empaquetarse varios elementos en un solo circuito siendo así mucho más completos.
CUARTA GENERACIÓN (1971-1988)
Dos mejoras en la tecnología marcan el inicio de esta generación:
El reemplazo de las memorias con núcleos magnéticos por las de chips de silicio.
La colocación de muchos elementos en un solo chip, debido a la miniaturización de los circuitos electrónicos.
Esto fue básicamente lo que marco el comienzo de esta generación, y esto dio paso al origen de las computadoras personales (PC´s), quienes tuvieron su origen con la creación de los microprocesadores, un microprocesador es una “computadora en un chip”, es decir, un circuito independiente. Este término PC tiene si inicio en 1981 debido a que IBM lanzo al mercado una computadora llamada “IBM PC” la cual se convirtió en un tipo de computadora personal y luego el término “PC” se estandarizo y aunque otras compañías lanzaron modelos diferentes al mercado eran llamados de la misma manera. El primer microprocesador fue el INTEL 4004 producido en 1971, este se desarrollo principalmente para una calculadora y su invención en esa época fue revolucionaria, contenía 2300 transistores en un microprocesador de 4 bits que solo podía realizar 60000 operaciones por segundo, el primer microprocesador de 8 bits fue el INTEL 8008 desarrollado en 1972 para su empleo en terminales informáticos este contaba con 3300 transistores; el primer microprocesador desarrollado para fines generales fue el INTEL 8088 de 8 bits que contenía 4500 transistores y podía ejecutar 200000 instrucciones por segundo.
Dos mejoras en la tecnología marcan el inicio de esta generación:
El reemplazo de las memorias con núcleos magnéticos por las de chips de silicio.
La colocación de muchos elementos en un solo chip, debido a la miniaturización de los circuitos electrónicos.
Esto fue básicamente lo que marco el comienzo de esta generación, y esto dio paso al origen de las computadoras personales (PC´s), quienes tuvieron su origen con la creación de los microprocesadores, un microprocesador es una “computadora en un chip”, es decir, un circuito independiente. Este término PC tiene si inicio en 1981 debido a que IBM lanzo al mercado una computadora llamada “IBM PC” la cual se convirtió en un tipo de computadora personal y luego el término “PC” se estandarizo y aunque otras compañías lanzaron modelos diferentes al mercado eran llamados de la misma manera. El primer microprocesador fue el INTEL 4004 producido en 1971, este se desarrollo principalmente para una calculadora y su invención en esa época fue revolucionaria, contenía 2300 transistores en un microprocesador de 4 bits que solo podía realizar 60000 operaciones por segundo, el primer microprocesador de 8 bits fue el INTEL 8008 desarrollado en 1972 para su empleo en terminales informáticos este contaba con 3300 transistores; el primer microprocesador desarrollado para fines generales fue el INTEL 8088 de 8 bits que contenía 4500 transistores y podía ejecutar 200000 instrucciones por segundo.
Quinta generación
La quinta generación de computadoras, también conocida por sus siglas en inglés, FGCS (de Fifth Generation Computer Systems) fue un ambicioso proyecto propuesto por Japón a finales de la década de 1970. Su objetivo era el desarrollo de una nueva clase de computadoras que utilizarían técnicas y tecnologías de inteligencia artificial tanto en el plano del hardware como del software usando el lenguaje PROLOG al nivel de lenguaje de maquina y serían capaces de resolver problemas complejos, como la traducción automática de una lengua natural a otra (del japonés al inglés, por ejemplo). Como unidad de medida del rendimiento y prestaciones de estas computadoras se empleaba la cantidad de LIPS (Logical Inferences Per Second) capaz de realizar durante la ejecución de las distintas tareas programadas. Para su desarrollo se emplearon diferentes tipos de arquitecturas VLSI (Very Large Scale Integration).
1. nuevas tecnologías de fabricación con materiales posiblemente distintos del silicio. integración de mas de 1.000.000 de transistores en un solo circuito
2. sustitución de los lenguajes de alto nivel(COBOL, FORTRAN, etc.) por lenguajes con mayor capacidad para manejar símbolos y mayores recursos como LIPS y PROLOG.
3. nuevas arquitecturas que sustituirán a la tradicional de Von Neumann
tecnologias utilizadas en las empresas
Las principales tecnologías utilizadas por nuestras empresas son las herramientas de trabajo en grupo y productividad (como Office), antivirus y sitios web, pero la adopción de las tecnologías de información y comunicación.
unas de las tecnologías que utilizan las empresas son
HTML5
Una de las tecnologías que mayor pasión, cuestiones y expectativas origina es el HTML5. Desde antes de su aparición en los correspondientes navegadores, ya se le daba bastante publicidad y credibilidad siendo unas de las tecnologías más esperadas antes de su puesta en marcha.
Al parecer, en general, estamos hartos plugins como Flash y se llegó a esperar esta nueva especificación como agua de mayo. Hoy en día, y nosotros mismos lo vemos, noticias sobre HTML5son de las más comentadas, votadas y solicitadas. La especificación no está implementada en su plenitud en todos los navegadores pero poco a poco se van incorporando.
Hipervisores del lado del cliente
En el artículo fuente comenta que la virtualización de escritorio convencional es problemático pues requiere de conexión continua entre cliente y servidor. Además, el propio servidor debe ejecutar todos los equipos virtuales de quienes estén conectados.
Como alternativa, las ventajas de utilizar un hipervisor cliente son que solo se instalan en una computadora (escritorio o portátil) y utiliza el procesamiento del cliente conteniendo este lasaplicaciones y configuraciones personales. Gracias a ello es posible realizar snapshots.
Integración continua
Recuerdo en una charla de desarrollo ágil que el ponente dijo: “Quizá a quién no esté acostumbrado a utilizar un servidor de integración continua le resulte molesto tener que usarlo, pero en nuestro caso, si nos quitásemos el servidor de integración continua no podríamos vivir”.
Una de las herramientas que cada vez más se está utilizando por más y más desarrolladores son los servidores de integración continua. Si nuestro trabajo es automatizar las tareas a nuestros clientes para que vivan más felices, ¿por qué no vamos a automatizar las nuestras propias?
Chips de seguridad
En la actualidad existen diferentes chips que se encargan de controlar la seguridad como el chip TPM. Este chip es el encargado de almacenar claves de cifrado, contraseñas y certificados. Otro ejemplo, es el chip Intel que combina el chip TPM con confianza de hardware y las secuencias de arranque. Muy pronto, todos los ordenadores llevarán estos chips y los programas podrán utilizarlo para guardar claves (de cualquier tipo) y tener la información más segura.
Alternativas JavaScript
Según el artículo, cada vez más se pretende evitar programar en javaScript o, al menos, escribir lo menos posible. Se exponen algunos ejemplos como Google Web Toolkit o CoffeScript en el que javascript se autogenera a partir de un lenguaje más “sencillo”. Uno de los casos más extremos es el caso de Dart, en el que el objetivo es sustituir completamente el lenguaje, incluso del navegador.
Sin embargo, en mi opinión es que lo que está en alza es el uso de frameworks como jQuery. Esto no es una tendencia sino una realidad. Sin embargo, la comunidad de jQuery deberá adaptarse a nuevas características HTML5 y aparecerán cada vez más plugins javascript.
Almacenamiento por niveles
La idea de este principio es no utilizar el almacenamiento de manera uniforme. La eficiencia en la lectura de los datos debe ser más eficiente en función del número de veces que se accede a esa información. No es lo mismo un servidor que gestiona por ejemplo los correos a un servidor que gestiona las nóminas (entiendiendo que a esta última se accede 1 vez al mes).
La tendencia es que las memorias flash son cada vez más rápidas y con más capacidad de almacenamiento. Combinar este tipo de memorias para la realización de caches en un posible servidor pueden mejorar enormemente el rendimiento de respuesta en vez de leer del clásico disco. Este tipo de cache es ideal para pantallas o datos en los que constantemente se están consultando.
Apache Hadoop
Los sistemas distribuidos están cada vez más en alza. Hadoop crea un nuevo camino para implementar clústeres de servidores básicos. Este servidor ha encontrado un nicho incluso en servicios ofrecidos por Amazon, IBM, Oracle, SAP y Microsoft.
Sincronización avanzada
Cada vez más, se pierde la concepción de que solo hay un usuario que accede a los recursos y cada vez más los ficheros, documentos, etc están compartidos por diferentes usuarios. Por ello, las empresas se están moviendo en disponer sus recursos en un servicio basado en una nube sincronizada.
Mediante la sincronización, los usuarios podrán traerse cualquier documento o recurso, manipularlo y tratarlo, incluso con su tablet o móvil inteligente, y volver a dejarlo en esta nube.
Redes creadas por software
Otras de las tecnologías en auge son las redes creadas mediante software. Estas son baratas de implementar y aportan una comunicación cifrada y con una seguridad suficiente. Gracias a estas, evitamos que el técnico tenga que estar físicamente para la realización de cualquier tarea que tenga que hacer en un ordenador concreto.
No hay comentarios:
Publicar un comentario