martes, 14 de abril de 2009

PROCESADORES CISC Y RISC Y SU EVOLUCIÒN

ARQUITECTURA CISC
La tecnología CISC (Complex Instruction Set Computer) nació de la mano de Intel, creador en 1971 del primer microchip que permitiría el nacimiento de la informática personal. Más concretamente, sería en 1972 cuando aparecería el 8080, primer chip capaz de procesar 8 bits, suficiente para representar números y letras. Con la posibilidad de colocar todos los circuitos en un solo chip y la capacidad de manejar número y letras nacería la cuarta generación de ordenadores, la de los conocidos como PC u ordenadores personales.
Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos.
Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que en la actualidad la mayoría de los sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en varias instrucciones simples, llamadas generalmente microinstrucciones.
La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC. La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador. Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj, al menos uno por microinstrucción. Es así entonces como los chips CISC utilizan comandos que incorporan una gran diversidad de pequeñas instrucciones para realizar una única operación.
Cuando el sistema operativo o una aplicación requiere de una de estas acciones, envía al procesador el nombre del comando para realizarla junto con el resto de información complementaria que se necesite. Pero cada uno de estos comandos de la ROM del CISC varían de tamaño y, por lo tanto, el chip debe en primer lugar verificar cuanto espacio requiere el comando para ejecutarse y poder así reservárselo en la memoria interna. Además, el procesador debe determinar la forma correcta de cargar y almacenar el comando, procesos ambos que ralentizan el rendimiento del sistema.



El procesador envía entonces el comando solicitado a una unidad que lo descodifica en instrucciones más pequeñas que podrán ser ejecutadas por un nanoprocesador, una especie de procesador dentro del procesador. Y al no ser las instrucciones independientes, pues son instrucciones menores procedentes de la descodificación de una instrucción mayor, sólo puede realizarse una instrucción cada vez.
A través de la compleja circuitería del chip, el nanoprocesador ejecuta cada una de las instrucciones del comando. El desplazamiento por esta circuitería también ralentiza el proceso. Para realizar una sola instrucción un chip CISC requiere de cuatro a diez ciclos de reloj.
Entre las bondades de CISC destacan las siguientes:
o Reduce la dificultad de crear compiladores.
o Permite reducir el costo total del sistema.
o Reduce los costos de creación de sftware.
o Mejora la compactación de código.
o Facilita la depuración de errores.
Ejemplo de microprocesadores basados en la tecnología CISC:
o Intel 8086, 8088, 80286, 80386, 80486.
o Motorola 68000, 68010, 68020, 68030, 6840.


ARQUITECTURA RISC

Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.
La idea estuvo inspirada también por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.
La arquitectura RISC funciona de modo muy diferente a la CISC, su objetivo no es ahorrar esfuerzos externos por parte del software con sus accesos a la RAM, sino facilitar que las instrucciones sean ejecutadas lo más rápidamente posible. La forma de conseguirlo es simplificando el tipo de instrucciones que ejecuta el procesador. Así, las instrucciones más breves y sencillas de un procesador RISC son capaces de ejecutarse mucho más aprisa que las instrucciones más largas y complejas de un chip CISC. Sin embargo, este diseño requiere de mucha más RAM y de una tecnología de compilador más avanzada.
La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.
Los comandos que incorpora el chip RISC en su ROM constan de varias instrucciones pequeñas que realizan una sola tarea. Las aplicaciones son aquí las encargadas de indicar al procesador qué combinación de estas instrucciones debe ejecutar para completar una operación mayor.
Además, los comandos de RISC son todos del mismo tamaño y se cargan y almacenan del mismo modo. Al ser estas instrucciones pequeñas y sencillas, no necesitan ser descodificadas en instrucciones menores como en el caso de los chips CISC, pues ya constituyen en sí unidades descodificadas. Por ello, el procesador RISC no gasta tiempo verificando el tamaño del comando, en descodificarlo ni en averiguar cómo cargarlo y guardarlo.
El procesador RISC puede además ejecutar hasta 10 comandos a la vez pues el compilador del software es el que determina qué comandos son independientes y por ello es posible ejecutar varios a la vez. Y al ser los comandos del RISC más sencillos, la circuitería por la que pasan también es más sencilla. Estos comandos pasan por menos transistores, de forma que se ejecutan con más rapidez. Para ejecutar una sola instrucción normalmente les basta con un ciclo de reloj.
Entre las ventajas de RISC tenemos las siguientes:
o La CPU trabaja mas rápido al utilizar menos ciclos de reloj para ejecutar instrucciones.
o Utiliza un sistema de direcciones no destructivas en RAM. Eso significa que a diferencia de CISC, RISC conserva después de realizar sus operaciones en memoria los dos operandos y su resultado, reduciendo la ejecución de nuevas operaciones.
o Cada instrucción puede ser ejecutada en un solo ciclo del CPU
Ejemplo de microprocesadores basados en la tecnología CISC:
o MIPS, Millions Instruction Per Second.
o PA-RISC, Hewlett Packard.
o SPARC, Scalable Processor Architecture, Sun Microsystems.
o POWER PC, Apple, Motorola e IBM.





CONCLUSIONES

Hoy en día, los programas cada vez más grandes y complejos demandan mayor velocidad en el procesamiento de información, lo que implica la búsqueda de microprocesadores más rápidos y eficientes.
Los avances y progresos en la tecnología de semiconductores han reducido las diferencias en las velocidades de procesamiento de los microprocesadores con las velocidades de las memorias, lo que ha repercutido en nuevas tecnologías en el desarrollo de microprocesadores. Hay quienes consideran que en breve los microprocesadores RISC sustituirán a los CISC, pero existe el hecho que los microprocesadores CISC tienen un mercado de software muy difundido.
En la década de los sesentas, la microprogramación era la técnica más apropiada para la tecnología de memorias existentes. En consecuencia, los procesadores se dotaron de poderosos conjuntos de instrucciones, dando surgimiento a la arquitectura CISC.
Las arquitecturas CISC utilizadas desde hace 15 años han permitido desarrollar un gran número de productos de software. Sin embargo, simultáneamente aumentan las aplicaciones en las cuales la capacidad de procesamiento que se pueda obtener del sistema es más importante que la compatibilidad con el hardware y el software anteriores. Por ello, todos los productores de estaciones de trabajo de renombre, han pasado en pocos años, de los procesadores CISC a los RISC, lo cual se refleja en el fuerte incremento anual del número de procesadores RISC.
Cada usuario debe decidirse a favor o en contra de determinada arquitectura de procesador en función de la aplicación concreta que quiera realizar. Nunca será decisiva únicamente la capacidad de procesamiento del microprocesador; se debe considerar por igual la capacidad real que puede alcanzar el sistema en su conjunto.
Si bien el campo de aplicaciones de la arquitectura RISC crece con fuerza, esto no equivale al fin de la arquitectura CISC, que también seguirá perfeccionándose adoptando técnicas típicas de los procesadores RISC, a fin de encontrar nuevas rutas para el incremento de sus capacidades.
Cuando en 1990 Apple lanza su primer Power Macintosh y anuncia que se pasa al RISC, muchos auguraron que la tecnología de instrucciones complejas tenía los días contados. Pero desde entonces han pasado 17 años y los fabricantes de procesadores CISC han seguido aumentando el rendimiento, y lo que es más importante, han conseguido mantener los precios de los chips muy bajos.
Intel ha mantenido hasta ahora que la arquitectura CISC puede estar perfectamente a la altura de la RISC. Pero la progresiva asimilación de técnicas propias del RISC en sus chips parecen revelar un abandono progresivo de la arquitectura de instrucciones complejas por la de instrucciones más reducidas


DIFERENCIA ENTRE UN PROCESADOR CISC Y RISC


La diferencia entre un procesador CISC y un RISC consiste en las memorias que manejan puesto que el CISC maneja una memoria interna lo cual hace mas lento el proceso de ejecución y el RISC maneja lo contrario una memoria externa y esto decremento el tiempo de acceso a dicha memoria por la tecnología de encapsulado

miércoles, 1 de abril de 2009

Actividad

Resolver:
1) Se dispone de cuatro resistencias: 4 W, 6 W, 8 W y 10 W, calcular la resistencia total si:
a – En serie.
b – En paralelo.
Al aplicarse entre sus extremos una diferencia de potencial de 40 V, ¿cuál es la intensidad de la corriente para cada una en cada caso?
a-Serie

b-Paralelo

Rta.: 28 W; 1,558 W; 1,42 A; 25,6 A

2) Sabiendo que R1 = 60 W, R2 = 40 W, R3 = 30 W e I = 5 A, calcular V AB según el gráfico.
Rta.: 385,5 V


3) Utilizando el gráfico anterior, y sabiendo que: R2 = 15 W, R3 = 12 W, V AB = 220 V e I = 10 A, calcular R1.
Rta.: 385,5 V

4) Sabiendo que R2 = 40 W, R3 = 25 W, I2 = 0.5 A y V AB = 50 V, calcular R1 según el gráfico.
Rta.: 23 W


5) Calcular la intensidad de la corriente que circula por un circuito conectado a cuatro pilas de 1,5 V c/u, conectadas en serie, si posee dos resistencias, de 8 W y 12 W, conectadas en serie, y otras tres conectadas en paralelo, de 8 W, 14 W, y 20 W, sabiendo que la resistencia interna de cada pila es de 0,3 W.
Rta.: 0,24 A

lunes, 30 de marzo de 2009

Codigo de Colores de los Capacitores

Determinar el valor de un capacitor por medio del código de colores no es difícil y se rea se realiza sin problemas.

Al igual que en los resistores este código permite de manera fácil establecer su valor

El código 101 de los capacitores:
El código 101 es muy utilizado en capacitores cerámicos. Muchos de ellos que tienen su valor impreso, como los de valores de 1 uF o más
Donde: uF = microfaradio
Ejemplo: 47 uF, 100 uF, 22 uF, etc.
Para capacitores de menos de 1 uF, la unidad de medida es el pF (picoFaradio) y se expresa con una cifra de 3 números. Los dos primeros números expresan su significado por si mismos, pero el tercero expresa el valor multiplicador de los dos primeros. Ver la siguiente tabla.


Ejemplo:
Un capacitor que tenga impreso el número 103 significa que su valor es 10 + 1000 pF = 10,000 pF.
Ver que 1000 tiene 3 ceros (el tercer número impreso). En otras palabras 10 más 3 ceros = 10,000 pF
El significado del tercer número se muestra en la tabla siguiente.
Después del tercer número aparece muchas veces una letra que indica la tolerancia del capacitor expresada en porcentaje (algo parecido a la tolerancia en las resistores). Ver el párrafo siguiente
Tabla de tolerancia del código 101 de los capacitores
La siguiente tabla nos muestra las distintas letras y su significado (porcentaje)
Ejemplo: Un capacitor tiene impreso lo siguiente:
104H
104 significa 10 + 4 ceros = 10,000 pFH = +/- 3% de tolerancia.
474J
474 significa 47 + 4 ceros = 470,000 pF,J = +/- 5% de tolerancia.
470.000pF = 470nF = 0.47µF
Algunos capacitores tiene impreso directamente sobre ellos el valor de 0.1 o 0.01, lo que sindica 0.1 uF o 0.01 uF

Codigo de Colores para las Resistencias

Los resistores son fabricados en una gran variedad de formas y tamaños.
En las más grandes, el valor del resistor se imprime directamente en el cuerpo del mismo, pero en los más pequeños no es posible.


Para poder obtener con facilidad el valor de la resistencia / resistor se utiliza el código de colores
Sobre estos resistores se pintan unas bandas de colores. Cada color representa un número que se utiliza para obtener el valor final del resistor.
Las dos primeras bandas indican las dos primeras cifras del valor del resistor, la tercera banda indica cuantos ceros hay que aumentarle al valor anterior para obtener el valor final de la resistor.
La cuarta banda nos indica la tolerancia y si hay quinta banda, ésta nos indica su confiabilidad.


Ejemplo:Si un resistor tiene las siguiente bandas de colores:

rojo amarillo verde oro

2 4 5 +/- 5 %

El resistor tiene un valor de 2400,000 Ohmios +/- 5 %El valor máximo de este resistor es: 25200,000 ΩEl valor mínimo de este resistor es: 22800,000 ΩEl resistor puede tener cualquier valor entre el máximo y mínimo calculados.

viernes, 27 de marzo de 2009

Tipos de Diodos

tipos de diodos
Diodo BARITT
(Del inglés: BARrier Injected Transit Time)
Diodo semejante al diodo IMPATT donde los portadores de carga llamados a atravesar la región de deplexión no provienen de una avalancha sino que son engendrados por inyección de portadores minoritarios en uniones polarizadas en el sentido de la conducción.

Diodo de avalancha
Diodo de rectificación en el que, mediante una técnica apropiada, se reparte la ruptura inversa, debida al fenómeno de avalancha, en todo el volumen de la unión. El diodo soporta, así, grandes corrientes en conducción inversa sin destruirse.

Diodo de capacidad variable (VARACTOR o VARICAP)
Diodo semiconductor con polarización inversa cuya capacidad entre los terminales disminuye en función de la tensión inversa aplicada entre sus extremos.

Diodo de conmutación
Diodo semiconductor diseñado para presentar una transición rápida entre el estado de conducción y el estado de bloqueo, y a la inversa.

Diodo rectificador.
Diodo de potencia media o alta que se utiliza para rectificar las corrientes alternas.

Diodo semiconductor.
Diodo que permite el paso de la corriente de su zona p, rica en huecos, a su zona n, rica en electrones.

Diodo de señal
Diodo semiconductor empleado para la detección o el tratamiento de una señal eléctrica de baja potencia.

Diodo de unión
Diodo formado por la unión de un material semiconductor de tipo n y otro semiconductor de tipo p.

Diodo Esaki
Ver diodo túnel

Diodo Gunn
Dispositivo semiconductor impropiamente calificado de diodo ya que no contiene una unión sino una sucesión de tres capas de tipo n más o menos dopadas. En presencia de campos eléctricos elevados, el diodo Gunn es escenario de oscilaciones a muy alta frecuencia.


Diodo IMPATT
(Del inglés: IMPAct Avalanche and Transit Time)
Diodo cuyo funcionamiento asocia la multiplicación por avalancha de los portadores de carga y su tiempo de propagación en la unión. Esto conduce, para ciertas frecuencias muy elevadas, a una resistencia negativa que permite utilizar el diodo en modo amplificador o en modo oscilador.

Diodo láser
Diodo electroluminescente (LED) cuya estructura contiene una cavidad óptica y que está concebido de modo que permita la emisión estimulada, y por tanto la radiación de una onda luminosa quasi-monocromática y coherente (láser).


Diodo PIN
(Del inglés P region-Intrinsic region-N region)
Unión pn semiconductora que posee dos regiones, una fuertemente dopada n, representada como n++, y otra fuertemente dopada p, representada por p++, y una zona intrínseca de dopado muy débil.
Diodo Schottky
Diodo formado por un contacto entre un semiconductor y un metal, lo que elimina el almacenamiento de carga y el tiempo de recuperación. Un diodo Schottky puede rectificar corrientes de frecuencia superior a 300 MHz.

Diodo Schokley
Diodo de cuatro capas p-n-p-n utilizado en los circuitos de conmutación rápida. Además, la tensión directa de este diodo es más baja que en la de un diodo semiconductor de dos regiones.

Diodo TRAPPAT
(Del inglés, TRAPped Plasma Avalanche Transit time)
Diodo de hiperfrecuencia de semiconductores que, cuando su unión se polariza en avalancha, presenta una resistencia negativa a frecuencias inferiores al dominio de frecuencias correspondiente al tiempo de tránsito del diodo. Esta resistencia negativa se debe a la generación y desaparición de un plasma de electrones y huecos que resultan de la íntima interacción entre el diodo y una cavidad de hiperfrecuencias de resonancias múltiples.

Diodo túnel
Diodo semiconductor que tiene una unión pn, en la cual se produce el efecto túnel que da origen a una conductancia diferencial negativa en un cierto intervalo de la característica corriente-tensión.
La presencia del tramo de resistencia negativa permite su utilización como componente activo (amplificador/oscilador).

Diodo unitúnel
Diodo túnel cuyas corrientes de pico y valle son aproximadamente iguales.

Diodo Zener
Diodo optimizado, mediante la elección del índice de dopado, para su funcionamiento en una región de ruptura inversa, a una tensión ampliamente independiente de la intensidad. Los diodos Zener se utilizan en reguladores de tensión.
Rectificador de media Onda
Este circuito rectificador está formado por un solo diodo. La tensión de entrada al circuito es tensión de corriente alterna y, como sabemos, esta tensión viene representada por una sinusoide con dos ciclos uno positivo y otro negativo. Durante el ciclo positivo el ánodo del diodo es más positivo que el cátodo y la corriente puede circular a través del diodo. Pero cuando estamos en el ciclo negativo, el ánodo va a ser más negativo que el cátodo y no va a estar permitido el paso de corriente por el diodo. La tensión de salida va a ser igual que la de entrada en el primer caso, es decir, un ciclo positivo, mientras que en el segundo caso, cuando la tensión de entrada es negativa, la de salida va a ser nula. La onda de salida ha quedado reducida a la mitad y de ahí viene el nombre de rectificador de media onda.



Rectificador de Onda Completa
Un rectificador de onda completa convierte la totalidad de la forma de onda de entrada en una polaridad constante (positiva o negativa) en la salida, mediante la inversión de las porciones (semiciclos) negativas (o positivas) de la forma de onda de entrada. Las porciones positivas (o negativas) se combinan con las inversas de las negativas (positivas) para producir una forma de onda parcialmente positiva (negativa).


Rectificador de Onda Completa con transformador de punto medio.


Rectificador de Onda Completa con puente doble de Gratz.

jueves, 26 de marzo de 2009

Historia y cronología de los Sistemas Operativos de Microsoft

Ahora que nos acercamos al nacimiento de un nuevo sistema operativo, nos referimos a la comercialización de Windows 7, por parte de Microsoft es un buen momento para echar la vista atrás y conocer un poco de la historia detrás de estos sistemas operativos.

Concretamente echaremos un vistazo a la cronología e historia de los SO de Microsoft, desde el desconocido por muchos MS-DOS 1.0 (todos los programas tienen su versión 1.0) hasta el último SO en llegar a nuestras manos (aunque en fase beta) Windows 7.


Cronología

Cronología de los Sistemas Operativos de Microsoft

Año
Sistemas Operativos (MS-DOS y Windows)
Windows (sin SO)
Información

1)1981

MS-DOS 1.0

2)1982

4MS-DOS 1.25

3)1983

MS-DOS 2.0

Microsoft Windows

4)1984

MS-DOS 3.0 / MS-DOS 3.1 for networks

5)1985

Microsoft Windows 1.0

6)1986

MS-DOS 3.2


7)1987

MS-DOS 3.3

Microsoft Windows 2.0 / Microsoft Windows / 386

8)1988

MS-DOS 4.0 / MS-DOS 4.01

Microsoft Windows / 286

9)1990

Microsoft Windows 3.0

10)1991

MS-DOS 5.0

Microsoft Windows 3.00a

11)1992

Microsoft Windows 3.1 / Microsoft Windows for Workgroups 3.1

12)1993

MS-DOS 6.0 / MS-DOS 6.2 / Microsoft Windows NT 3.1

13)1994

MS-DOS 6.21 / MS-DOS 6.22 / Microsoft Windows NT 3.5

Microsoft Windows for Workgroups 3.11

14)1995

Microsoft Windows NT 3.51 / Microsoft Windows 95

15)1996

Microsoft Windows NT 4.0 / Microsoft Windows CE 1.0

16)1997

Microsoft Windows CE 2.0



17)1998

Microsoft Windows 98 / Microsoft Windows CE 2.1

18)1999

Microsoft Windows 98 SE / Microsoft Windows CE 3.0

19)2000

Microsoft Windows 2000 / Microsoft Windows ME (Millennium)

20)2001

Microsoft Windows XP



21)2003

Microsoft Windows Server 2003

22)2007

Microsoft Windows Vista



23)2007

Windows Home Server

24)2008

Windows Server 2008

25)¿2009-2010?

Microsoft Seven


Historia de los sistemas Operativos de Microsoft


Una vez puestos en antecedentes es hora de conocer algo más de estos sistemas operativos y de sus antecedentes.

MS-DOS

El primer sistema operativo que muchos conocimos se basaba en una línea de comandos en la que uno tenía que teclear comandos que lanzaban los respectivos programas…es decir, nada de ratón, nada de clics, nada de entornos gráficos… era una época en la que para lanzar un videojuego uno tenía que aprender a sacarle el máximo partido a la memoria expandida…


Dos-Shell

Si bien Dos-Shell, no es ningún sistema operativo, lo menciono aquí porque fue para muchos, por lo menos lo fué para mí, la primera aproximación a un gestor de ventanas.

DOS Shell era la solución de Microsoft para los usuarios que no supieran usar la línea de comandos de DOS y solía venir en el disco “suplementario” de instalación del sistema operativo.

Lo poco o mucho que aprendí de comandos de MS-DOS lo hice utilizando un gran libro La Biblia del MS-DOS, imagino que habrá mas de uno que aún se acuerde de este libro

Windows 1.0

En 1985 Microsoft publicó la primera versión de Windows (Windows 1.0), una interfaz gráfica de usuario o GUI para su propio sistema operativo (MS-DOS) que había sido incluido en el IBM PC y ordenadores compatibles desde 1981. Tomó un total de 55 programadores para desarrollarlo y no permitía ventanas en cascada.

Por decirlo así es como una evolución del Dos-Shell.

Windows 2.0

Esta segunda versión de Microsoft Windows, fue lanzada el 9 de diciembre de 1987 y contenía algunas mejoras con respecto a la versión original.

Windows 3.0

El 22 de Mayo de 1990 fue lanzado Windows 3.0, vendiendo más de 10 millones de copias, el nombre clave durante el proceso de desarrollo fue Chicago. Con esta versión ya nos acercamos mucho más a la idea que muchos tenemos actualmente de un Sistema Operativo.


Windows 3.1

El 6 de Abril de 1992 se puso a la venta Windows 3.1 y en tan sólo dos meses consiguió vender tres millones de copias entre productos completos y actualizaciones sobre la versión 3.0.

Windows 3.11


Windows 3.11 era una actualización gratis de Windows 3.1, que contenía parches para errores menores, especialmente problemas relacionados con la instalación en redes.


Windows 95

Windows 95 , que fue lanzado el 24 de Agosto de 1995, estrenaba una nueva interfaz de usuario más usable y potente que sus antecesores, convirtiendose en el sistema operativo de más éxito de todos los tiempos, a pesar de sus defectos.

Con la instalación de Internet Explorer 4.0 se incluyó una actualización llamada Windows Desktop Update que una vez instalada confería a Windows 95 (y NT 4.0) una interfaz de usuario muy similar al que sería su sucesor, Windows 98. Esta actualización desapareció en las siguientes versiones de Internet Explorer.

A partir de la llegada de este SO, la mayoría de sus usuarios olvidarían para siempre la línea de comandos.

Windows 98

Windows 98 (cuyo nombre en clave es Memphis) , fue lanzado el 25 de Junio de 1998.

Como su predecesor, es un producto monolítico híbrido de 16 y 32 bits. La primera edición de Windows 98 fue designada por los números de versión internos 4.10.1998, o 4.10.1998A si había sido actualizado con el CD de seguridad de Microsoft.

Windows 98 Second Edition

Windows 98 Segunda Edición (SE) es una actualización de Windows 98, fue publicada el 5 de mayo de 1999. Nació como respueste a un juicio antimonopolio que perdió Microsoft por hacer que Internet Explorer fuera parte de Windows 98 (…si lo sé, aún viene este navegador de serie con los SO de Microsoft…cosas de las leyes y de tener pasta de sobra como para pagar las multas que se le impongan…).

Incluye correcciones para muchos problemas menores, un soporte USB mejorado, y el reemplazo de Internet Explorer 4.0 con el considerablemente más rápido Internet Explorer 5. También se incluyó la Conexión Compartida a Internet, además de otras muchas mejoras que hacían que este fuera un producto mucho más estable.




Windows NT

Windows New Technology, más conocido como Windows NT fue lanzado en Septiembre de 1993. Fue diseñado para ser un poderoso sistema operativo multiusuario, basado en lenguaje de alto nivel, independiente del procesador, con rasgos comparables con Unix.

Su intención fue la de complementar las versiones de consumidor de las Windows que estaban basadas en el MS-DOS. NT era la primera versión totalmente en 32 bits de Windows, mientras que sus colegas orientados al consumidor, Windows 3.1x y Windows 9x, eran de 16-bit/32-bit híbridos. Windows 2000, Windows XP, Windows Server 2003, Windows Vista, Windows Server 2008, Windows Home Server y Windows 7 están basados sobre el sistema de Windows NT, aunque ellos no estén marcados como Windows NT.

Windows ME

La edición del Milenio (Milenium Edition) es una actualización de Windows 98 que toma algunas características de Windows 2000. Uno de los peores sistemas operativos desarrollados por Microsoft. Tenía una lista bastante amplia de incompatibilidades de Hardware que hacía que dicho sistema operativo no pudiera correr en todos los equipos.

Personalmente tuve la desgracia de instalarlo….resultado, dos fallos graves y el disco duro borrado, con toda la perdida de información que eso implica

Windows 2000 (Windows NT 5.0)

Windows 2000, (conocido también como Win2K) sistema operativo de Microsoft que se puso en circulación el 17 de febrero de 2000 con un cambio de nomenclatura para su sistema NT. Así, Windows NT 5.0 se pasa a llamar Windows 2000.

Este sistema operativo introdujo algunas modificaciones respecto a sus predecesores, como el sistema de archivos NTFS 5, la capacidad de cifrar y comprimir archivos. Introdujo también las mejoras en el sistema de componentes COM, introduciendo COM+ que unificó en un solo paquete de servicios anexados, la tecnología COM y MTS de Windows NT4, con nuevas ventajas.

Este sistema fue el primer intento de Microsoft por juntar su versión MS-DOS (Windows 95, 98, ME) y la NT (3.51, 4) aunque la fusión definitiva llegaría con Windows XP.

Esta versión ha tenido mucho éxito en empresas, que todavía hoy la usan, pero entre los usuarios de hogares no tuvo mucho éxito.

Windows XP

Windows XP (cuyo nombre en clave inicial fue Whistler) y cuyas letras “XP” provienen de la palabra ‘eXPeriencia’, fue lanzado el 25 de octubre de 2001. Es uno de los SO más utilizados actualmente, por lo menos a nivel de los hogares, ya que se estima que en el mundo hay 400 millones de copias de este SO funcionando.

La principal característica de este nuevo Windows con respecto a Windows 98, es su nueva apariencia. El mayor cambio en WXP es cosmético, algo que provoca que necesite mayores requisitos de sistema necesita.

Windows Vista

Y pasamos de un SO querido por muchos usuarios Windows XP a un SO odiado por casi todo el mundo, Windows Vista. Durante su desarrollo fue conocido como Windows Longhorn. Fue lanzado el 30 de noviembre de 2006.

Sus novedades más destacadas son las de agregar efectos visuales asombrosos y varias opciones innovadoras como mejor control en las cuentas de usuarios, firewall bi-direccional, mayor seguridad, anti spyware, Windows Search, la barra lateral de herramientas, y otras muchas cosas….a cambio de todo esto conseguirás que muchos de tus periféricos tengan problemas…que apenas puedas hacer nada sin que te salgan alertas constastes…

Windows Home Server

Windows Home Server es un nuevo sistema operativo para uso doméstico producido por Microsoft. Anunciado el 07 de enero de 2007, en la “Consumer Electronics Show” por Bill Gates, Windows Home Server intenta ser una solución para hogares con múltiples PC interconectados en la cual puedan compartir archivos, hacer copias de seguridad automatizadas, y acceso remoto. Está basado en Windows Server 2003 SP2.

Windows Server 2008

Windows Server 2008 es el nombre del sistema operativo para servidores de Microsoft. Es el sucesor de Windows Server 2003 distribuido al público casi cinco años antes. Al igual que Windows Vista, Windows Server 2008 se basa en el núcleo Windows NT 6.0.

Windows 7

El último y más nuevo sistema operativo de Microsoft es Windows 7 o Windows Seven, que actualmente se encuentra en fase de desarrollo o beta y cuyo año de salida será el 2010. Se esperan numerosas mejoras en cuanto a interfaz gráfica, unos mejores tiempos de arranque y la eliminación o desactivación del control por parte del usuario (supuestamente no saldrán tantas alertas de seguridad).

Como aún no ha salido oficialmente no nos meteremos mucho con él….aunque hay ciertos puntos que suenan a cachondeo (como el “rumor” de que sólo podría ejecutar 3 aplicaciones de forma simultanea y que para ejecutar más abría que pasar por caja…) .

Buenos esto es todo, si habéis llegado hasta aquí felicidades, ya conocéis algo más de la historia de los SO de Microsoft.

Si os entra la morriña y deseáis volver a sentir la experiencia de probar alguno de estos sistemas operativos, os dejo un enlace donde os podéis descargar casi todos los sistemas operativos de los que os hemos hablado (pero esto no se lo digáis a nadie ;)).
windows NT
Artículos principales: Windows NT y Windows NT 3.x
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.

Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.
Windows 95
Artículo principal: Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Windows 98
Artículo principal: Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.

Windows 98 Second Edition (SE)
Artículo principal: Windows 98 SE
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
El 24 de mayo de 1993, se lanzó la primera versión de Windows NT. Se la denominó Windows NT 3.1. A ésta le siguió Windows NT 3.5 en septiembre de 1994 y Windows 3.51 en junio de 1995. Con Windows NT 4.0, que salió a la venta el 24 de agosto de 1996, Windows NT se volvió un verdadero éxito.
En julio de 1998, Microsoft lanzó Windows NT 4.0 TSE (Terminal Server Emulation). Éste fue el primer sistema de Windows que permitió que los terminales se pudieran conectar a un servidor, es decir, usar clientes ligeros para abrir una sesión en el servidor.
El 17 de febrero de 2000, a la siguiente versión de NT 4.0 se le dio el nombre de Windows 2000 (en lugar de Windows NT 5.0) para resaltar la unificación de los sistemas "NT" y "Windows 9x". Windows 2000 es un sistema entero de 32 bits con características de Windows NT, un administrador de tareas mejorado y una compatibilidad total con periféricos USB y FireWire.
Después, el 25 de octubre de 2001, llegó al mercado Windows XP. Esta versión fue una fusión de los sistemas operativos anteriores.
Finalmente, el 24 de abril de 2003, Microsoft lanzó un sistema operativo para servidores: Windows Server 2003.










Distribuciones en linux


Linux es un sistema de libre distribución por lo que podeis encontrar todos los ficheros y programas necesarios para su funcionamiento en multitud de servidores conectados a Internet. La tarea de reunir todos los ficheros y programas necesarios, asi como instalarlos en tu sistema y configurarlo, puede ser una tarea bastante complicada y no apta para muchos. Por esto mismo, nacieron las llamadas distribuciones de Linux, empresas y organizaciones que se dedican a hacer el trabajo "sucio" para nuestro beneficio y comodidad.
Una distribución no es otra cosa, que una recopilación de programas y ficheros, organizados y preparados para su instalación. Estas distribuciones se pueden obtener a traves de Internet, o comprando los CDs de las mismas, los cuales contendrán todo lo necesario para instalar un sistema Linux bastante completo y en la mayoría de los casos un programa de instalación que nos ayudara en la tarea de una primera instalación. Casi todos los principales distribuidores de Linux, ofrecen la posibilidad de bajarse sus distribuciones, via FTP (sin cargo alguno).
Existen muchas y variadas distribuciones creadas por diferentes empresas y organizaciones a unos precios bastantes asequibles (si se compran los CDs, en vez de bajársela via FTP), las cuales deberiais poder encontrar en tiendas de informática, librerías. En el peor de los casos siempre podeis encargarlas directamente por Internet a las empresas y organizaciones que las crean. A veces, las revistas de informática sacan una edición bastante aceptable de alguna distribución.
A continuacion teneis una grafica con las distribuciones mas comunes en la linea del tiempo. Este grafico es grande asi que pulsar en el mismo para ver la version en tamaño original.

Si vais a instalar el sistema por primera vez, os recomendamos haceros con una de estas distribuciones y en un futuro cuando querais actualizar el sistema con las últimas versiones y actualizaciones del núcleo y programas que utiliceis, usar Internet.
Si lo que quereis es probar una distribucion Linux sin necesidad de instalarla, podeis probar una distribucion LiveCD.
A continuación podeis encontrar informacion sobre las distribuciones mas importantes de Linux (aunque no las unicas).







REDHAT ENTERPRISE
Esta es una distribucion que tiene muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye. Es necesario el pago de una licencia de soporte. Enfocada a empresas.


FEDORA
Esta es una distribucion patrocinada por RedHat y soportada por la comunidad. Facil de instalar y buena calidad.


DEBIAN
Otra distribucion con muy buena calidad. El proceso de instalacion es quizas un poco mas complicado, pero sin mayores problemas. Gran estabilidad antes que ultimos avances.


OpenSuSE
Otra de las grandes. Facil de instalar. Version libre de la distribucion comercial SuSE.


SuSE LINUX ENTERPRISE
Otra de las grandes. Muy buena calidad, contenidos y soporte a los usuarios por parte de la empresa que la distribuye, Novell. Es necesario el pago de una licencia de soporte. Enfocada a empresas.


SLACKWARE
Esta distribucion es de las primeras que existio. Tuvo un periodo en el cual no se actualizo muy a menudo, pero eso es historia. Es raro encontrar usuarios de los que empezaron en el mundo linux hace tiempo, que no hayan tenido esta distribucion instalada en su ordenador en algun momento.


GENTOO
Esta distribucion es una de las unicas que han incorporado un concepto totalmente nuevo en Linux. Es una sistema inspirado en BSD-ports. Podeis compilar/optimizar vuestro sistema completamente desde cero. No es recomendable adentrarse en esta distribucion sin una buena conexion a internet, un ordenador medianamente potente (si quereis terminar de compilar en un tiempo prudencial) y cierta experiencia en sistemas Unix.


UBUNTU
Distribucion basada en Debian, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. Muy popular y con mucho soporte en la comunidad. El entorno de escritorio por defecto es GNOME.


KUBUNTU
Distribucion basada en Ubuntu, con lo que esto conlleva y centrada en el usuario final y facilidad de uso. La gran diferencia con Ubuntu es que el entorno de escritorio por defecto es KDE.


MANDRIVA
Esta distribucion fue creada en 1998 con el objetivo de acercar el uso de Linux a todos los usuarios, en un principio se llamo Mandrake Linux. Facilidad de uso para todos los usuarios.
servidores MAC de apple

Apple Preestrena el servidor Mac OS X Server “Tiger
El servidor “Tiger” incluye soporte para aplicaciones de 64 bits, servidor Weblog, servidor iChat y herramientas de migración Windows NT

WWDC 2004, SAN FRANCISCO—28 de junio, 2004—Apple preestrenó el día de hoy el Mac OS X Server versión 10.4 “Tiger,” el próximo mayor lanzamiento del galardonado sistema operativo servidor basado en UNIX de Apple, que facilita el despliegue de soluciones de fuente abierta para los clientes de Mac, Windows y Linux. El quinto mayor lanzamiento de Mac OS X Server, Tiger Server continúa el relampagueante paso de innovación de Apple para entregar más de 200 nuevas características incluyendo soporte nativo para aplicaciones de 64 bits, ideal para computarizar con alto desempeño; Servidor Weblog que hace el hospedaje de un weblog tan fácil y sencillo como el revisar un buzón; Servidor iChat para desplegar comunicaciones privadas encriptadas en una organización; y herramientas de migración para hacer fácil la actualización de un servidor Windows a un Mac OS X Server.“Con más de 200 nuevas características, Tiger
Server es el mejor lanzamiento jamás realizado por Mac OS X Server”, comentó Philip Schiller, vicepresidente senior de mercadeo de productos Apple a nivel mundial. “Tiger Server combina más de 100 de las mejores soluciones desde el mundo de fuente abierta con la legendaria facilidad de uso de Apple, para crear la forma más fácil de desplegar poderosas soluciones de servidor de fuente abierta.

Desde la primera vez, Tiger Server puede correr procesos de 64 bits para bases de datos, aplicaciones de ingeniería y científicas para sacar ventaja del incrementado desarrollo liberado al acceder cantidades masivas de memoria mientras sigue corriendo al mismo tiempo con las aplicaciones existentes de 32 bits. El servidor Weblog es totalmente compatible con Safari RSS en Mac OS X Tiger y convierte la publicación de un weblog tan simple como revisar un buzón en un servidor de administración de preferencias.

El servidor Weblog está basado en el popular proyecto de fuente abierta ‘Blojsom’ y está completamente integrado en el Tiger Server con una interfaz fácil de usar, soporte de autentificación Kerberos e integración LDAP.
Tiger Server incluye un completamente nuevo servidor iChat diseñado para organizaciones que necesitan mantener una comunicación interna de manera privada. Las organizaciones pueden definir sus propios nombres de espacio, usar encriptaciones SSL/TSL para asegurar la privacidad y Kerberos para autentificación. El servidor iChat del Tiger Server trabaja con el popular software de conferencia iChat en el Mac OS X Tiger y es compatible con clientes de fuente abierta de Jabber disponible en Windows, Linux Tiger Server también ha sido actualizado con herramientas que hacen que la migración de servidores basados en Windows sea fácil. Los administradores podrán migrar ahora la información de las cuentas de usuario y de grupo de manera automática desde Windows Primary Domain Controller hasta un Open Directory. Tiger Server puede entonces tomar control como el Primary Domain Controller para los clientes de Windows e incluso hospedar las direcciones, carpetas de grupo, perfiles roaming e impresoras compartidas de los usuario de window• Directorios móviles que ofrecen a los usuarios móviles lo mejor de ambos mundos – acceder a archivos y preferencias en el camino a través del directorio central del usuario almacenado y administrado centralmente en la red de trabajo; • Servidor de actualización de Software que permite a los administradores del sistema hospedar sus propios servidores proxy/cache para controlar la disponibilidad de las actualizaciones de software de Apple para los sistemas Mac OS X Tiger y Tiger Server;• Listas de control de acceso que proveen un modelo de permisos más flexible que ofrece a los administradores un mejor control sobre archivos, carpetas y servicios de red, haciedo más sencillo la configuración de ambientes de colaboración;• Asistente de Internet Gateway para hacerle fácil a los pequeños negocios y oficinas de casa el configurar los complejos servicios de sistemas de res, incluyendo servicios DHCP, NAT, DNS, Port Routing, Firewall y VPN; y• Xgrid 1.0, el software de clustering fácil de usar de Apple, integrado dentro de Tiger Server para hacer sencilla a científicos e investigadores el construir una computación distribuida que soporte hasta 128 agentes, hasta 10,000 trabajos en cola y hasta 10,000 tareas por trabajo. Precio & DisponibilidadMac OS X Server version 10.4 “Tiger” estará disponible en la primera mitad del 2005 a través de los canales de distribución autorizados por Apple a un precio sugerido de $499 dólares* en edición de 10 clientes y en $999 dólares* en edición de clientes ilimitados. Al momento de su liberación, los actuales clientes del programa de mantenimiento Apple recibirán Tiger Server como parte del contrato de servicio. Más información de Tiger Server pueden ser encontrada en http://www.apple.com/server.* Los precios recomendados no incluyen impuestos y otros costos de importación. Apple inició la revolución de la computadora personal en los años 70s con la Apple II y reinventó la computadora personal en los años 80s con la Macintosh. Apple está comprometida a hacer que los estudiantes, educadores, profesionales creativos y usuarios alrededor del mundo tengan la mejor experiencia personal con la computadora, a través de su hardware, software y opciones de Internet innovadoras.

Servidores SUM Solaris

El Grupo Fujitsu y Sun Microsystems desarrollan los servidores Solaris/SPARC más seguros y rápidos del mercado. Los servidores “SPARC Enterprise” serán comercializados conjuntamente por Fujitsu, Fujitsu Siemens Computers y Sun bajo la marca “SPARC Enterprise”.
Junto con su compañía matriz, Fujitsu Limited y Sun Microsystems, Fujitsu Siemens Computers ha anunciado el lanzamiento de una nueva línea de servidores, caracterizados por disponer del mismo nivel de fiabilidad de los mainframes al precio de cualquier sistema abierto.
Los nuevos modelos, basados en la arquitectura SPARC, corren bajo el sistema operativo Solaris 10 y son los servidores SPARC más rápidos del mercado, resultando ideales para todos aquellos usuarios que requieren gran escalabilidad y fiabilidad y que necesitan optimizar o incrementar la productividad de sus infraestructuras TI a través de la virtualización. Los servidores se han desarrollado combinando la experiencia de Fujitsu en tecnologías de misión crítica y en el diseño de procesadores de gran rendimiento con la experiencia de Sun en servidores de networking abiertos, escalables y particionables.
La gama SPARC Enterprise es la culminación de dos años de desarrollo conjunto entre Fujitsu, Fujitsu Siemens Computers y Sun, basados en sus 20 años de relación y trabajo conjunto. Los nuevos servidores responden a las necesidades crecientes de maximizar la utilización de los sistemas, ofreciendo un conjunto de tecnologías de particionamiento de alta granularidad.
El servidor SPARC Enterprise también ha sido diseñado para garantizar el mínimo tiempo de caída. Incluye capacidades RAS (Reliability, Availability, Serviceability) de nivel mainframe tales como componentes redundantes de hardware intercambiables en caliente (memoria y procesadores inclusive), “instruction retry”, memoria en espejo y capacidades de diagnóstico y autorecuperación.
Para proteger las inversiones ya realizadas en los centros de datos, Sun garantiza el 100% de compatibilidad binaria con Solaris. Esto significa que los usuarios de los servidores PRIMEPOWER de Fujitsu Siemens Computers y de los servidores Sun FIRE de Sun pueden adoptar la nueva plataforma SPARC Enterprise de forma fácil y segura y continuar explotando todas las aplicaciones Solaris (nº 1 de cuota de mercado en segmento UNIX).
Los nuevos servidores SPARC Enterprise incluyen seis modelos. El servidor de entrada utiliza el procesador UltraSPARC T1 desarrollado por Sun Microsystems. Los servidores de gama media y alta disponen del procesador SPARC64 VI desarrollado por Fujitsu. Todos los servidores corren bajo el sistema operativo Solaris 10. El resto de capacidades y características son iguales para todos los modelos que ya están disponibles en el mercado.

SRVIDORES AIX

es un sistema operativo UNIX® abierto que permite ejecutar las aplicaciones deseadas en cualquier hardware y servidores IBM UNIX. Junto con las ofertas de virtualización de IBM, AIX proporciona nuevos grados de flexibilidad y rendimiento para poder consolidar las cargas de trabajo en menos servidores que pueden aumentar la eficacia y conservar la energía. Además, ofrece una gran seguridad, integración y flexibilidad: tres características esenciales para cumplir los requisitos de los entornos actuales de la tecnología de la

jueves, 12 de febrero de 2009

miércoles, 11 de febrero de 2009

lunes, 2 de febrero de 2009

viernes, 30 de enero de 2009

equipos tecnologicos




jueves, enero 29, 2009

Nueva técnica de inmunoterapia para enfermos de cáncer
Una de las jugarretas más ingeniosas del cáncer es su habilidad para ocultarse del sistema inmunológico. Pero un nuevo enfoque en el tratamiento del cáncer llamado inmunoterapia podría ahorrarle a los pacientes al menos parte del durísimo conjunto de tratamientos de quimioterapia reentrenando las defensas del cuerpo del paciente (las células del sistema inmunológico) para reconocer y destruir los tumores. Ahora, según un artículo publicado este mes en Technology Review, investigadores de la Universidad de Harvard han desarrollado un modo sencillo de hacerlo en el interior del cuerpo, mediante un implante polimérico que atrae a las células del sistema inmunológico y las entrena para perseguir al cáncer.El enfoque experimental ha mostrado un gran éxito en los estudios realizados con animales, incrementando la tasa de supervivencia de los ratones con melanoma mortífero de 0% al 90%. El implante se podría utilizar también para tratar otras enfermedades del sistema inmunológico como la artritis y la diabetes; y, posiblemente, para entrenar a otros tipos de células, incluidas las células madre utilizadas para reparar daños en el cuerpo.Los métodos habituales para la inmunoterapia del cáncer son complejos y han tenido poco éxito en ensayos clínicos, señala David Mooney, profesor de bioingeniería de Harvard que dirigió el desarrollo del implante. En primer lugar, se extraen del cuerpo del paciente las células inmunológicas, denominadas células dendríticas; a continuación, se exponen a activadores químicos y antígenos específicos del cáncer; finalmente, se vuelven a inyectar estas células en el paciente donde, en teoría, deberían viajar hasta los nodos linfáticos y activar otro grupo de células denominadas células T, entrenándolas para atacar a los tumores. Sin embargo, las células dendríticas son frágiles y, aunque este enfoque ha incrementado la supervivencia en ratones, no ha reducido el tamaño de los tumores en los ensayos clínicos realizados con humanos."Al transplantar las células, casi todas ellas mueren y apenas se tiene control sobre lo que hacen una vez reimplantadas", señala Mooney. Por lo que su equipo siguió un enfoque diferente, pensando que "quizá podrían hacer todo esto en el interior del cuerpo".Mooney y su equipo construyeron un polímero capaz de llevar a cabo en el interior del cuerpo lo que las complejas inmunoterapias realizan fuera; y describieron el diseño y rendimiento de un implante para un melanoma en el último número de la revista Nature Materials. El polímero tiene un amplio historial de uso seguro en humanos (en suturas biodegradables, por ejemplo). Primero, atrae las células dentríticas liberando una espacie de señal química denominada citoquina. Una vez atraídas las células, éstas se instalan temporalmente en el interior de los agujeros del polímero (similares a los de una esponja), dando tiempo a las células a volverse muy activas.El polímero porta dos señales que sirven para activas las células dentríticas. Además de desplegar antígenos específicos del cáncer para entrenar a las células dentríticas, está cubierto también con fragmentos de ADN, la secuencia típica de las bacterias. Cuando las células se enganchan a estos fragmentos, se vuelven muy activas. "Esto hace que las células crean estar en medio de la infección", explica Mooney. "Con frecuencia, las cosas que se pueden hacer a las células son pasajeras –especialmente en el cáncer, en donde los tumores evitan que el sistema inmunológico genere una respuesta potente". Según los investigadores de Harvard, este irritante extra fue necesario para generar una respuesta fuerte.Al implantarlo bajo la piel de ratones con una forma mortífera de melanoma, el polímero incrementó su tasa de supervivencia hasta cerca del 90%. En cambio, las inmunoterapias convencionales que requieren tratar las células fuera del cuerpo tienen tan solo un 60% de eficacia, señala Mooney.


También la General Motors no se quiere quedar atrás con los automóviles de la nueva generación ecológica y económica. Se trata del Chevrolet Volt, quienes ya anunciaron su producción en serie después de haberlo tenido como un concept car el año pasado, para ser lanzado en el año 2010.
Es una belleza de carro, quien funciona con Energía Eléctrica y Gasolina, pero enfocándose más al funcionamiento eléctrico por 60km de corrido sin usar combustible.
ABC News nos presenta una parte de su producción, titulando como El Vehículo que podría Salvar a General Motors.
Acá una pequeña muestra :
Hay que estar pendientes de más noticias sobre el lanzamiento de este vehículo