..:::INSTALACIÓN DE WINDOWS XP PASO A PASO..:::

Intel presenta nuevos procesadores Core para aumentar la velocidad

Los nuevos chips de computadoras de escritorio de la compañía permiten una mejora en la velocidad.


Intel lanzó el viernes los nuevos procesadores Core i5 y Core i7 para computadoras escritorio que pueden correr a mayor velocidad, dándoles a usuarios la flexibilidad de aumentar la velocidad del reloj y así mejorar el desempeño de las aplicaciones.

Los nuevos chips incluyen el procesador Core i7-875K, el cual corre a 2.93GHz y el Core I5-655K de dos núcleos, que corre a 3.2GHz.

Intel está tratando de introducir flexibilidad en sus ofertas de chip de las cuales los usuarios pueden beneficiarse, dijo Dan Snyder, un portavoz de Intel. Los fabricantes de PC han estado preguntando por chips desbloqueados, confirmó Snyder.

El Core i5-655K incluye 8MB de caché y puede correr a velocidades de hasta 3.6GHz. El chip se hizo usando el proceso antiguo de 45 nanómetros y consume 95 vatios de energía. Tiene un precio de US$342.

El Core i5-655K incluye 4MB de caché y puede correr a las velocidades de hasta 3.46GHz. El chip se hace usando el proceso de 32 nanómetros actual y gasta 73 vatios de energía. Tiene un precio de $216.

Los procesadores integran a los controladores de memoria y pueden correr dos hilos por corazón simultáneamente, lo cual ayuda a mejorar el desempeño de las aplicaciones. Los chips están disponibles en todo el mundo y compañías incluyendo a Asustek Computer y MSI están ofreciendo tarjetas madre para los procesadores.

Los nuevos chips llegan antes de la feria comercial Computex esta semana en Taipei, donde Intel está supuesto a hacer nuevos anuncios de chips.

Videojuegos podrían ser educativos


Se encuentra en el frente, disparando contra los nazis antes de que le disparen a uno. O es un gladiador del futuro en un combate a muerte con los robots.

De cualquier forma, está usando un videojuego, y quizá mejore su visión y otras funciones cerebrales, según una investigación presentada en una conferencia de la Universidad de Nueva York sobre juegos como medios educativos.

“La gente que usa estos juegos de gran ritmo tiene mejor visión, mejor atención y mejor capacidad cognitiva”, dijo Daphne Bavelier, profesora adjunta en el departamento del cerebro y ciencias cognitivas de la Universidad de Rochester.

Bavelier fue una de las presentadoras del jueves en el simposio Juegos para Aprender, una jornada dedicada al uso de videojuegos con fines educativos.

El evento, el primero de su clase, fue un indicio de que los juegos electrónicos están ganando legitimidad en las escuelas.

El presidente Barack Obama identificó recientemente la creación de un software educativo como uno “de los grandes desafíos de la innovación estadounidense”, y el secretario adjunto de Educación de la Oficina de Innovación y Mejoras, Jim Shelton, asistió a la conferencia del jueves.

Los participantes analizaron cómo aprenden las personas y cómo los juegos pueden ser diseñados para ser incluso más educativos.

“La gente aprende en los juegos”, sostuvo J. Dexter Fletcher, del Instituto para el Análisis de la Defensa.

Sigmund Tobías, de la Universidad de Nueva York en Albany, dijo que un estudio realizado por la fuerza aérea israelí descubrió que los estudiantes que jugaron el videojuego “Fortaleza Espacial” sacaron mejores notas en sus entrenamientos de pilotos que los estudiantes que no lo hicieron.

Agregó que los estudiantes que jugaron videojuegos “prosociales”, que promueven la cooperación, estaban más inclinados que otros a ayudar en situaciones de la vida real, como intervenir cuando alguien es amedrentado. AP

Información personal en la red beneficia a los ciberdelincuentes

El robo de identidad es la actividad más fraudulenta y con mayor crecimiento en Colombia y América Latina en el último año. De hecho, cada vez más se adoptan nuevas y complejas herramientas tecnológicas para vulnerar las redes sociales y medios electrónicos de ocio, donde la gente comparte información personal.

Uno de los casos más recientes es el de la modelo Claudia Bahamón, a quien suplantaron en la red social Facebook para estafar a uno de sus admiradores. Por eso informó su decisión de cerrar la cuenta.

Hechos como éstos son varios en el país y no toda la culpa es de los sistemas y plataformas tecnológicas. Los usuarios tienen gran responsabilidad ya que al momento de configurar sus perfiles virtuales habilitan acceso a ellos de manera ilimitada.

Estudios confirman que esta modalidad de fraude se presenta con mayor frecuencia en redes como Facebook, Twitter y MySpace y hasta de bienes como bancos y otras entidades financieras que a pesar de sus esfuerzos por aumentar la seguridad, son los blancos más buscados.

De acuerdo con Ernesto Carrasco, presidente de Kroll, firma líder en investigación fraudulenta, con la información que se cuelga en Internet los delincuentes no necesitan mayor esfuerzo para delinquir.

“Por Internet se obtienen nombres, fechas de nacimiento, dirección y otros datos personales haciendo uso de técnicas de búsqueda no muy sofisticadas como por ejemplo rastreo físico de basuras (Spam), así se puede obtener extractos bancarios con números de cuentas con base en las cuales se materializa su objetivo criminal”, dice Carrasco. La empresa de seguridad informática privada Kaspersky Lab asegura que así como crece el número de personas que usan redes sociales, también lo hacen los ataques.

Ya no hay necesidad de almacenar la música

Se denomina tecnología ‘nube’ y ofrece música sin necesidad de almacenarla. Ahora, prácticamente toda la música grabada que existe está al alcance de los dedos, en cualquier momento, mediante la internet.

Los servicios que hacen esto posible no son todavía demasiado populares. Pero ahora, los recortes en los precios y los avances en la tecnología podrían hacer que esta idea despegue finalmente.

Por ejemplo, los programas Rhapsody International Inc. y Thumbplay Inc. ofrecen la posibilidad de elegir casi cualquier canción o álbum y escucharlo de manera instantánea en un dispositivo móvil que se conecta a la internet sobre las redes celulares. Los servicios cuestan 10 dólares mensuales.

Su método es muy simple, pues cuenta con un buscador, en el cual podrás ingresar la canción que deseas escuchar, y estos programas se encargarán de redireccionar tu búsqueda a la emisora que esté transmitiendo dicha canción.

Ante el beneficio evidente de poder escuchar millones de canciones como si uno las tuviera almacenadas, ¿por qué estos servicios no son más utilizados?

En parte ha sido por una escasa promoción, por una ejecución complicada y por el hecho de que la gente está más familiarizada con los discos compactos y con las descargas de canciones desde la tienda de música iTunes de Apple Inc. La gente que gasta menos 120 dólares anuales en música tampoco consideraría muy convenientes los planes de suscripción.

Pero los proveedores de música esperan ganar más consumidores al facilitar el uso de los servicios, aprovechando las redes celulares cada vez más robustas para la distribución de música. Y en general, los consumidores se sienten cada vez más cómodos usando muchos tipos de servicios que dependen de archivos almacenados en computadoras distantes y consultados de manera remota, un concepto conocido como “computación en la nube”.

El problema de este sistema consiste en encontrar el precio adecuado para el servicio. Otro, en tener la mayor cantidad posible de suscriptores. Si sólo los melómanos se suscriben porque esto les permite reducir sus gastos, la industria de la música podría terminar afectando sus propias ventas realizadas por otros medios. AP

LA SOLUCIÓN

Una solución para los provedores sería que los operadores celulares integraran la suscripción a la música con sus servicios mensuales de telefonía. Casi 450 mil consumidores de Vodafone en Europa se suscribieron a un acceso ilimitado a 2 millones de canciones el año pasado, cuando el plan fue añadido a un paquete de datos inalámbricos por 3 euros (4 dólares) mensuales.

Los planes anteriores de suscripción tenían otro problema: Hacían que los consumidores descargaran canciones a sus computadoras y las transfirieran a dispositivos móviles. Entre los aprobados no figuraban los populares iPhone ni iPod de Apple. Eso ha cambiando. Un plan mensual de 10 dólares permite que la gente obtenga música de manera directa e instantánea en el iPhone y en dispositivos que se basan en el software Android de Google.

UN USUARIO FIEL

Justin Darcy, de 32 años y director de ventas en una compañía turística en San Francisco, dice que escucha tanta música que le costaría 10.000 dólares al año si no tuviera el plan de Rhapsody. “Es una de las cosas más valiosas con las que me haya topado”, dice.

Memoria ram

Check out this SlideShare Presentation:

..::MONTAJE Y REPARACION DE PC::..

ELEMENTOS NECESARIOS PARA EL MANTENIMIENTO

Mantenimiento


Para el mantenimiento preventivo y/o correctivo será necesario quitar y poner las partes internas de la computadora, para esto se debe conocer la manera de sacar y volver a introducir adecuadamente los componentes así como las medidas básicas de seguridad, a continuación se explicará brevemente el procedimiento.

Elementos necesarios para el mantenimiento de una PC

Como ya se había explicado anteriormente es indispensable contar con las herramientas y material adecuados para el mantenimiento, por lo tanto revise que cuente con lo sugerido, limpie su mesa de trabajo, quite de la mesa lo que no le sea útil, también es recomendable tener a la mano un block o un cuaderno para tomar notas y hacer pequeñas gráficas.

Medidas de seguridad

Estas medidas aunque le parezcan básicas son vitales para la seguridad de su equipo de cómputo y su seguridad personal:

· Antes de abrir cualquier computadora es necesario revisarla para poder detectar posibles fallas, por lo cual hay que encender la computadora y probar todas y cada una de las aplicaciones, revisar las unidades de disco flexible y la unidad de CD-ROM, así como verificar que cada una de las teclas del teclado funcionen adecuadamente, y que tanto el ratón como los botones se desplacen sin ningún problema.

· Si detectó algún problema tome nota e infórmele al dueño del equipo.
· Antes de quitar los tornillos es recomendable que desconecte la computadora de la energía, quite todos los cables exteriores, tomando nota del lugar de donde los quitó.
· Retire los tornillos e introdúzcalos en el bote para rollo fotográfico (así se evita perder los tornillos), asegúrese de utilizar el desarmador adecuado.
· Quite la tapa de la computadora.
· Si el CPU es mini-torre “acuéstelo” para poder trabajar con comodidad y seguridad.
· Antes de quitar cualquier componente observe con cuidado la parte interna de la PC, tome nota de la colocación de las tarjetas, para que cuando termine el mantenimiento preventivo las coloque en el lugar exacto de donde las sacó.
· Ya que haya tomado nota de todos los pequeños detalles proceda a colocarse la pulsera antiestática, esto es para evitar dañar alguna tarjeta.
· Quite el tornillo que sujeta a la tarjeta con el chasis de la PC e introdúzcalo también en el botecito, tal vez el tornillo sea un poco más pequeño que los tornillos del chasis, si es así colóquelo en otro botecito, etiquete los botecitos con cinta adhesiva para mayor control.
· Cuando saque alguna tarjeta y ya la haya limpiado colóquela dentro de una bolsa antiestática, lo mismo para todas las tarjetas.

NOTA. Es recomendable que no quite el disco duro, microprocesador y fuente de poder.

Reglas básicas de configuración e instalación física de dispositivos

Ya que haya limpiado todas las tarjetas, incluyendo la tarjeta principal, el siguiente paso es volver a armar la PC, para lo cual se le recomienda lo siguiente:

· Nunca introduzca una tarjeta en una ranura que no le corresponde, por ejemplo; una tarjeta ISA nunca entrará en una ranura PCI pero si usted se empeña en meterla puede dañar la tarjeta o la ranura.
· El mismo procedimiento se lleva a cabo para los conectores de alimentación, en tanto tienen una forma especial o particular que impide introducirlos al revés, observe muy bien el dispositivo que necesita alimentación y verá que tiene la misma forma que el conector (sólo que a la inversa), es decir, si el conector del dispositivo es hembra forzosamente necesita insertarle un conector macho y así sucesivamente.

· Si desconectó los conectores P8 y P9 de la fuente de alimentación de la tarjeta principal, siga esta sencilla recomendación: los cables negros tienen que ir juntos, no los invierta ya que pueden dañar el equipo.
· Cuando inserte los cables tipo Listón tiene que seguir la “Ley del Pin 1”, esta ley o regla implica la manera como se tiene que colocar el cable o Bus, observe con cuidado sus cables tipo Listón y podrá ver que en uno de los extremos el cable tiene un filamento rojo, ese filamento indica que es el Pin 1, ahora en su dispositivo (disco duro, unidad de disco flexible o CD-ROM) en la parte exterior cerca del lugar donde se inserta el cable tiene que ver un número 1 o una especie de flecha, esa señalización indica que es el Pin 1; en pocas palabras tiene que coincidir el filamento rojo con el No. 1 o la flecha indicada en el dispositivo.
· Colocar las tarjetas en el lugar exacto de donde las sacó, así evita alterar la configuración que ya se tenía antes.
· Antes de cerrar el equipo verificar que funcione adecuadamente.

Recomendaciones:
· Nunca introducir nada a la fuerza, ya que se pueden dañar los conectores y los dispositivos, sólo entra de una manera.
· Colocar todo como estaba antes de desarmar la PC.
· Seguir la regla del Pin 1.

MANTENIMIENTO PARA PC's

Es el cuidado que se le da a la computadora para prevenir posibles fallas, se debe tener en cuenta la ubicación física del equipo ya sea en la oficina o en el hogar, así como los cuidados especiales cuando no se está usando el equipo. Hay dos tipos de mantenimiento, el preventivo y el correctivo.

Tipos de mantenimiento para la PC

· Mantenimiento preventivo para PCs

El mantenimiento preventivo consiste en crear un ambiente favorable para el sistema y conservar limpias todas las partes que componen una computadora. El mayor número de fallas que presentan los equipos es por la acumulación de polvo en los componentes internos, ya que éste actúa como aislante térmico.

El calor generado por los componentes no puede dispersarse adecuadamente porque es atrapado en la capa de polvo.

Las partículas de grasa y aceite que pueda contener el aire del ambiente se mezclan con el polvo, creando una espesa capa aislante que refleja el calor hacia los demás componentes, con lo cual se reduce la vida útil del sistema en general.

Por otro lado, el polvo contiene elementos conductores que pueden generar cortocircuitos entre las trayectorias de los circuitos impresos y tarjetas de periféricos.

Si se quiere prolongar la vida útil del equipo y hacer que permanezca libre de reparaciones por muchos años se debe de realizar la limpieza con frecuencia.

· Mantenimiento correctivo para PCs

Consiste en la reparación de alguno de los componentes de la computadora, puede ser una soldadura pequeña, el cambio total de una tarjeta (sonido, video, SIMMS de memoria, entre otras), o el cambio total de algún dispositivo periférico como el ratón, teclado, monitor, etc. Resulta mucho más barato cambiar algún dispositivo que el tratar de repararlo pues muchas veces nos vemos limitados de tiempo y con sobre carga de trabajo, además de que se necesitan aparatos especiales para probar algunos dispositivos.

Asimismo, para realizar el mantenimiento debe considerarse lo siguiente:

En el ámbito operativo, la reconfiguración de la computadora y los principales programas que utiliza.

· Revisión de los recursos del sistema, memoria, procesador y disco duro.

·Optimización de la velocidad de desempeño de la computadora.

·Revisión de la instalación eléctrica (sólo para especialistas).

·Un completo reporte del mantenimiento realizado a cada equipo.

·Observaciones que puedan mejorar el ambiente de funcionamiento.

Criterios que se deben considerar para el mantenimiento a la PC

La periodicidad que se recomienda para darle mantenimiento a la PC es de una vez por semestre, esto quiere decir que como mínimo debe dársele dos veces al año, pero eso dependerá de cada usuario, de la ubicación y uso de la computadora, así como de los cuidados adicionales que se le dan a la PC.

Por su parte, la ubicación física de la computadora en el hogar u oficina afectará o beneficiará a la PC, por lo que deben tenerse en cuenta varios factores:

· Hogar

Es necesario mantener el equipo lejos de las ventanas, esto es para evitar que los rayos del sol dañen a la PC, así como para evitar que el polvo se acumule con mayor rapidez, también hay que tratar de ubicar a la PC en un mueble que se pueda limpiar con facilidad, si en la habitación donde se encuentra la PC hay alfombra se debe aspirar con frecuencia para evitar que se acumule el polvo. También no es conveniente utilizar el monitor como "repisa", esto quiere decir que no hay que poner nada sobre el monitor ya que genera una gran cantidad de calor y es necesario disiparlo, lo mismo para el chasis del CPU.

· Oficina

Los mismos cuidados se deben tener en la oficina, aunque probablemente usted trabaje en una compañía constructora y lleve los registros de materiales, la contabilidad, los planos en Autocad, etc.

Esto implicaría que la computadora se encuentre expuesta a una gran cantidad de polvo, vibraciones y probablemente descargas eléctricas, así mismo la oficina se mueve a cada instante, hoy puede estar en la Ciudad de México y en dos semanas en Monterrey, por lo mismo el mantenimiento preventivo será más frecuente.

Consideraciones finales:

· No exponer a la PC a los rayos del sol.

· No colocar a la PC en lugares húmedos.

· Mantener a la PC alejada de equipos electrónicos o bocinas que produzcan campos magnéticos

ya que pueden dañar la información.

Limpiar con frecuencia el mueble donde se encuentra la PC así como aspirar con frecuencia el área si es que hay alfombras.

· No fumar cerca de la PC.

· Evitar comer y beber cuando se esté usando la PC.

· Usar "No-Break" para regular la energía eléctrica y por si la energía se corta que haya tiempo de guardar la información.

· Cuando se deje de usar la PC, esperar a que se enfríe el monitor y ponerle una funda protectora, así como al teclado y al chasis del CPU.

· Revisión de la instalación eléctrica de la casa u oficina, pero esto lo debe de hacer un especialista.

Material, herramientas y mesa de trabajo

Como ya se había explicado anteriormente el mantenimiento preventivo ayudará a alargar el buen funcionamiento de la PC, para ello se tiene que contar con una mesa de trabajo, la cual preferentemente no debe de ser conductora (que no sea de metal o similar), se debe de tener el área o mesa de trabajo libre de estorbos y polvo.

También es importante contar con las herramientas y material adecuado, todo esto para poder facilitar el trabajo:

HERRAMIENTAS SOFTWARE QUÍMICOS
(soluciones limpiadoras)
Estuche de herramientas para PCs. Discos de sistema. Bote con solución limpiadora en espuma.
Multímetro digital. Utilerías para MS-DOS. Bote con limpiador para partes electrónicas.
Cautín. Utilerías de Norton. Bote con aire comprimido.
Soldadura. Antivirus o vacunas.
Expulsora de aire (frío). Discos de limpieza para unidades ded isco flexible y CD-ROM.
Pulsera antiestática.

Rollo de cinta adhesiva (grueso).

Bote para rollo fotográfico (para guardar los tornillos dentro).

Trapo blanco.

Alfileres.

Bolsas antiestáticas.

HISTORIA DE LAS COMPUTADORAS

Uno de los primeros dispositivos mecánicos para contar fue el ábaco, cuya historia se remonta a las antiguas civilizaciones griega y romana. Este dispositivo es muy sencillo, consta de cuentas ensartadas en varillas que a su vez están montadas en un marco rectangular. Al desplazar las cuentas sobre varillas, sus posiciones representan valores almacenados, y es mediante dichas posiciones que este representa y almacena datos. A este dispositivo no se le puede llamar computadora por carecer del elemento fundamental llamado programa.

Otro de los inventos mecánicos fue la Pascalina inventada por Blaise Pascal (1623 - 1662) de Francia y la de Gottfried Wilhelm von Leibniz (1646 - 1716) de Alemania. Con estas máquinas, los datos se representaban mediante las posiciones de los engranajes, y los datos se introducían manualmente estableciendo dichas posiciones finales de las ruedas, de manera similar a como leemos los números en el cuentakilómetros de un automóvil.

La primera computadora fue la máquina analítica creada por Charles Babbage, profesorUniversidad de Cambridge en el siglo XIX. La idea que tuvo Charles Babbage sobre un computador nació debido a que la elaboración de las tablas matemáticas era un procesogobierno Británico lo apoyo para crear el proyecto de una máquina de diferencias, un dispositivo mecánico para efectuar sumas repetidas. matemático de la tedioso y propenso a errores. En 1823 el

Mientras tanto Charles Jacquard (francés), fabricante de tejidos, había creado un telar que podía reproducir automáticamente patrones de tejidos leyendo la información codificada en patrones de agujeros perforados en tarjetas de papel rígido. Al enterarse de este método Babbage abandonó la máquina de diferencias y se dedico al proyecto de la máquina analítica que se pudiera programar con tarjetas perforadas para efectuar cualquier cálculo con una precisión de 20 dígitos. La tecnología de la época no bastaba para hacer realidad sus ideas.

El mundo no estaba listo, y no lo estaría por cien años más.

En 1944 se construyó en la Universidad de Harvard, la Mark I, diseñada por un equipo encabezado por Howard H. Aiken. Esta máquina no está considerada como computadora electrónica debido a que no era de propósito general y su funcionamiento estaba basado en dispositivos electromecánicos llamados relevadores.

En 1947 se construyó en la Universidad de Pennsylvania la ENIAC (Electronic Numerical Integrator And Calculator) que fue la primera computadora electrónica, el equipo de diseño lo encabezaron los ingenieros John Mauchly y John Eckert. Esta máquina ocupaba todo un sótano de la Universidad, tenía más de 18 000 tubos de vacío, consumía 200 KW de energía eléctrica y requería todo un sistema de aire acondicionado, pero tenía la capacidad de realizar cinco mil operaciones aritméticas en un segundo.

El proyecto, auspiciado por el departamento de Defensa de los Estados Unidos, culminó dos años después, cuando se integró a ese equipo el ingeniero y matemático húngaro John von Neumanndesarrollocomputadoras. (1903 - 1957). Las ideas de von Neumann resultaron tan fundamentales para su posterior, que es considerado el padre de las

La EDVAC (Electronic Discrete Variable Automatic Computer) fue diseñada por este nuevo equipo. Tenía aproximadamente cuatro mil bulbos y usaba un tipo de memoria basado en tubos llenos de mercurio por donde circulaban señales eléctricas sujetas a retardos.

La idea fundamental de von Neumann fue: permitir que en la memoria coexistan datos con instrucciones, para que entonces la computadora pueda ser programada en un lenguaje, y no por medio de alambres que eléctricamente interconectaban varias secciones de control, como en la ENIAC.

Todo este desarrollo de las computadoras suele divisarse por generaciones y el criterio que se determinó para determinar el cambio de generación no está muy bien definido, pero resulta aparente que deben cumplirse al menos los siguientes requisitos:

  • La forma en que están construidas.
  • Forma en que el ser humano se comunica con ellas.

Primera Generación

En esta generación había una gran desconocimiento de las capacidades de las computadoras, puesto que se realizó un estudio en esta época que determinó que con veinte computadoras se saturaría el mercado de los Estados Unidos en el campo de procesamiento de datos.

Esta generación abarco la década de los cincuenta. Y se conoce como la primera generación. Estas máquinas tenían las siguientes características:

  • Estas máquinas estaban construidas por medio de tubos de vacío.
  • Eran programadas en lenguaje de máquina.

En esta generación las máquinas son grandes y costosas (de un costo aproximado de ciento de miles de dólares).

En 1951 aparece la UNIVAC (NIVersAl Computer), fue la primera computadora comercial, que disponía de mil palabras de memoria central y podían leer cintas magnéticas, se utilizó para procesar el censo de 1950 en los Estados Unidos.

En las dos primeras generaciones, las unidades de entrada utilizaban tarjetas perforadas, retomadas por Herman Hollerith (1860 - 1929), quien además fundó una compañía que con el paso del tiempo se conocería como IBM (International Bussines Machines).

Después se desarrolló por IBM la IBM 701 de la cual se entregaron 18 unidades entre 1953 y 1957.

Posteriormente, la compañía Remington Rand fabricó el modelo 1103, que competía con la 701 en el campo científico, por lo que la IBM desarrollo la 702, la cual presentó problemas en memoria, debido a esto no duró en el mercado.

La computadora más exitosa de la primera generación fue la IBM 650, de la cual se produjeron varios cientos. Esta computadora que usaba un esquema de memoria secundaria llamado tambor magnético, que es el antecesor de los discos actuales.

Otros modelos de computadora que se pueden situar en los inicios de la segunda generación son: la UNIVAC 80 y 90, las IBM 704 y 709, Burroughs 220 y UNIVAC 1105.

Segunda Generación

Cerca de la década de 1960, las computadoras seguían evolucionando, se reducía su tamaño y crecía su capacidad de procesamiento. También en esta época se empezó a definir la forma de comunicarse con las computadoras, que recibía el nombre de programación de sistemas.

Las características de la segunda generación son las siguientes:

  • Están construidas con circuitos de transistores.
  • Se programan en nuevos lenguajes llamados lenguajes de alto nivel.

En esta generación las computadoras se reducen de tamaño y son de menor costo. Aparecen muchas compañías y las computadoras eran bastante avanzadas para su época como la serie 5000 de Burroughs y la ATLAS de la Universidad de Manchester.

Algunas de estas computadoras se programaban con cintas perforadas y otras más por medio de cableado en un tablero. Los programas eran hechos a la medida por un equipo de expertos: analistas, diseñadores, programadores y operadores que se manejaban como una orquesta para resolver los problemas y cálculos solicitados por la administración. El usuario final de la información no tenía contacto directo con las computadoras. Esta situación en un principio se produjo en las primeras computadoras personales, pues se requería saberlas "programar" (alimentarle instrucciones) para obtener resultados; por lo tanto su uso estaba limitado a aquellos audaces pioneros que gustaran de pasar un buen número de horas escribiendo instrucciones, "corriendo" el programa resultante y verificando y corrigiendo los errores o bugs que aparecieran. Además, para no perder el "programa" resultante había que "guardarlo" (almacenarlo) en una grabadora de astte, pues en esa época no había discos flexibles y mucho menos discos duros para las PC; este procedimiento podía tomar de 10 a 45 minutos, según el programa. El panorama se modificó totalmente con la aparición de las computadoras personales con mejore circuitos, más memoria, unidades de disco flexible y sobre todo con la aparición de programas de aplicación general en donde el usuario compra el programa y se pone a trabajar. Aparecen los programas procesadores de palabras como el célebre Word Star, la impresionante hoja de cálculo (spreadsheet) Visicalc y otros más que de la noche a la mañana cambian la imagen de la PC. El sortware empieza a tratar de alcanzar el paso del hardware. Pero aquí aparece un nuevo elemento: el usuario.

El usuario de las computadoras va cambiando y evolucionando con el tiempo. De estar totalmente desconectado a ellas en las máquinas grandes pasa la PC a ser pieza clave en el diseño tanto del hardware como del software. Aparece el concepto de human interface que es la relación entre el usuario y su computadora. Se habla entonces de hardware ergonómico (adaptado a las dimensiones humanas para reducir el cansancio), diseños de pantallas antirreflejos y teclados que descansen la muñeca. Con respecto al software se inicia una verdadera carrera para encontrar la manera en que el usuario pase menos tiempo capacitándose y entrenándose y más tiempo produciendo. Se ponen al alcance programas con menús (listas de opciones) que orientan en todo momento al usuario (con el consiguiente aburrimiento de los usuarios expertos); otros programas ofrecen toda una artillería de teclas de control y teclas de funciones (atajos) para efectuar toda suerte de efectos en el trabajo (con la consiguiente desorientación de los usuarios novatos). Se ofrecen un sinnúmero de cursos prometiendo que en pocas semanas hacen de cualquier persona un experto en los programas comerciales. Pero el problema "constante" es que ninguna solución para el uso de los programas es "constante". Cada nuevo programa requiere aprender nuevos controles, nuevos trucos, nuevos menús. Se empieza a sentir que la relación usuario-PC no está acorde con los desarrollos del equipo y de la potencia de los programas. Hace falta una relación amistosa entre el usuario y la PC.

Las computadoras de esta generación fueron: la Philco 212 (esta compañía se retiró del mercado en 1964) y la UNIVAC M460, la Control Data Corporation modelo 1604, seguida por la serie 3000, la IBM mejoró la 709 y sacó al mercado la 7090, la National Cash Register empezó a producir máquinas para proceso de datos de tipo comercial, introdujo el modelo NCR 315.

La Radio Corporation of America introdujo el modelo 501, que manejaba el lenguaje COBOL, para procesos administrativos y comerciales. Después salió al mercado la RCA 601.

Tercera generación

Con los progresos de la electrónica y los avances de comunicación con las computadoras en la década de los 1960, surge la tercera generación de las computadoras. Se inaugura con la IBM 360 en abril de 1964.3

Las características de esta generación fueron las siguientes:

  • Su fabricación electrónica esta basada en circuitos integrados.
  • Su manejo es por medio de los lenguajes de control de los sistemas operativos.

La IBM produce la serie 360 con los modelos 20, 22, 30, 40, 50, 65, 67, 75, 85, 90, 195 que utilizaban técnicas especiales del procesador, unidades de cinta de nueve canales, paquetes de discos magnéticos y otras características que ahora son estándares (no todos los modelos usaban estas técnicas, sino que estaba dividido por aplicaciones).

El sistema operativo de la serie 360, se llamó OS que contaba con varias configuraciones, incluía un conjunto de técnicas de manejo de memoria y del procesador que pronto se convirtieron en estándares.

En 1964 CDC introdujo la serie 6000 con la computadora 6600 que se consideró durante algunos años como la más rápida.

En la década de 1970, la IBM produce la serie 370 (modelos 115, 125, 135, 145, 158, 168). UNIVAC compite son los modelos 1108 y 1110, máquinas en gran escala; mientras que CDC produce su serie 7000 con el modelo 7600. Estas computadoras se caracterizan por ser muy potentes y veloces.

A finales de esta década la IBM de su serie 370 produce los modelos 3031, 3033, 4341. Burroughs con su serie 6000 produce los modelos 6500 y 6700 de avanzado diseño, que se reemplazaron por su serie 7000. Honey - Well participa con su computadora DPS con varios modelos.

A mediados de la década de 1970, aparecen en el mercado las computadoras de tamaño mediano, o minicomputadoras que no son tan costosas como las grandes (llamadas también como mainframes que significa también, gran sistema), pero disponen de gran capacidad de procesamiento. Algunas minicomputadoras fueron las siguientes: la PDP - 8 y la PDP - 11 de Digital Equipment Corporation, la VAX (Virtual Address eXtended) de la misma compañía, los modelos NOVA y ECLIPSE de Data General, la serie 3000 y 9000 de Hewlett - Packard con varios modelos el 36 y el 34, la Wang y Honey - Well -Bull, Siemens de origen alemán, la ICL fabricada en Inglaterra. En la Unión Soviética se utilizó la US (Sistema Unificado, Ryad) que ha pasado por varias generaciones.

Cuarta Generación

Aquí aparecen los microprocesadores que es un gran adelanto de la microelectrónica, son circuitos integrados de alta densidad y con una velocidad impresionante. Las microcomputadoras con base en estos circuitos son extremadamente pequeñas y baratas, por lo que su uso se extiende al mercado industrial. Aquí nacen las computadoras personales que han adquirido proporciones enormes y que han influido en la sociedad en general sobre la llamada "revolución informática".

En 1976 Steve Wozniak y Steve Jobs inventan la primera microcomputadora de uso masivo y más tarde forman la compañía conocida como la Apple que fue la segunda compañía más grande del mundo, antecedida tan solo por IBM; y esta por su parte es aún de las cinco compañías más grandes del mundo.

En 1981 se vendieron 800 00 computadoras personales, al siguiente subió a 1 400 000. Entre 1984 y 1987 se vendieron alrededor de 60 millones de computadoras personales, por lo que no queda duda que su impacto y penetración han sido enormes.

Con el surgimiento de las computadoras personales, el software y los sistemas que con ellas de manejan han tenido un considerable avance, porque han hecho más interactiva la comunicación con el usuario. Surgen otras aplicaciones como los procesadores de palabra, las hojas electrónicas de cálculo, paquetes gráficos, etc. También las industrias del Software de las computadoras personales crece con gran rapidez, Gary Kildall y William Gates se dedicaron durante años a la creación de sistemas operativos y métodos para lograr una utilización sencilla de las microcomputadoras (son los creadores de CP/M y de los productos de Microsoft).

No todo son microcomputadoras, por su puesto, las minicomputadoras y los grandes sistemas continúan en desarrollo. De hecho las máquinas pequeñas rebasaban por mucho la capacidad de los grandes sistemas de 10 o 15 años antes, que requerían de instalaciones costosas y especiales, pero sería equivocado suponer que las grandes computadoras han desaparecido; por el contrario, su presencia era ya ineludible en prácticamente todas las esferas de control gubernamental, militar y de la gran industria. Las enormes computadoras de las series CDC, CRAY, Hitachi o IBM por ejemplo, eran capaces de atender a varios cientos de millones de operaciones por segundo.

Quinta Generación

En vista de la acelerada marcha de la microelectrónica, la sociedad industrial se ha dado a la tarea de poner también a esa altura el desarrollo del software y los sistemas con que se manejan las computadoras. Surge la competencia internacional por el dominio del mercado de la computación, en la que se perfilan dos líderes que, sin embargo, no han podido alcanzar el nivel que se desea: la capacidad de comunicarse con la computadora en un lenguaje más cotidiano y no a través de códigos o lenguajes de control especializados.

Japón lanzó en 1983 el llamado "programa de la quinta generación de computadoras", con los objetivos explícitos de producir máquinas con innovaciones reales en los criterios mencionados. Y en los Estados Unidos ya está en actividad un programa en desarrollo que persigue objetivos semejantes, que pueden resumirse de la siguiente manera:

  • Procesamiento en paralelo mediante arquitecturas y diseños especiales y circuitos de gran velocidad.
  • Manejo de lenguaje natural y sistemas de inteligencia artificial.

El futuro previsible de la computación es muy interesante, y se puede esperar que esta cienciaatención prioritaria de gobiernos y de la sociedad en conjunto. siga siendo objeto de

MODELO DE VON NEUMANN

Las computadoras digitales actuales se ajustan al modelo propuesto por el matemático John Von Neumann. De acuerdo con el, una característica importante de este modelo es que tanto los datos como los programas, se almacenan en la memoria antes de ser utilizados.