miércoles, 15 de abril de 2009

slots de expansion






slot de expansion






Un slot (también llamado slot de expansión o ranura de expansión) es un elemento de la placa base de un ordenador que permite conectar a ésta una tarjeta adaptadora adicional o de expansión, la cual suele realizar funciones de control de dispositivos periféricos adicionales, tales como monitores, impresoras o unidades de disco. En las tarjetas madre del tipo LPX los slots de expansión no se encuentran sobre la placa sino en un conector especial denominado riser card.






Los slots están conectados entre sí. Un ordenador personal dispone generalmente de ocho unidades, aunque puede llegar hasta doce.

1 Tipos de slots

1.3 ISA





1.5 PCI





2.1 AMR





2.3 PCI-Express






TIPOS DE MEMORIA RAM





RAM : un tipo de memoria a la que se puede acceder de forma aleatoria; esto es, se puede acceder a cualquier byte de la memoria sin pasar por los bytes precedentes. RAM es el tipo más común de memoria en las computadoras y en otros dispositivos, tales como las impresoras.
Hay dos tipos básicos de
RAM:
DRAM (Dynamic
RAM), RAM dinámica
SRAM (Static
RAM), RAM estática
Los dos tipos difieren en la
tecnología que usan para almacenar los datos. La RAM dinámica necesita ser refrescada cientos de veces por segundo, mientras que la RAM estática no necesita ser refrescada tan frecuentemente, lo que la hace más rápida, pero también más cara que la RAM dinámica. Ambos tipos son volátiles, lo que significa que pueden perder su contenido cuando se desconecta la alimentación.
En
el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria disponible para programas. En contraste, ROM (Read Only Memory) se refiere a la memoria especial generalmente usada para almacenar programas que realizan tareas de arranque de la máquina y de diagnósticos.
Tipos de
memoria RAM





VRAM :
Siglas de Vídeo RAM, una
memoria de propósito especial usada por los adaptadores de vídeo. A diferencia de la convencional memoria RAM, la VRAM puede ser accedida por dos diferentes dispositivos de forma simultánea. Esto permite que un monitor pueda acceder a la VRAM para las actualizaciones de la pantalla al mismo tiempo que un procesador gráfico suministra nuevos datos. VRAM permite mejores rendimientos gráficos aunque es más cara que la una RAM normal.





SIMM :
Siglas de Single In line Memory Module, un tipo de encapsulado consistente en una pequeña placa de circuito impreso que almacena chips de
memoria, y que se inserta en un zócalo SIMM en la placa madre o en la placa de memoria. Los SIMMs son más fáciles de instalar que los antiguos chips de memoria individuales, y a diferencia de ellos son medidos en bytes en lugar de bits.
El primer formato que se hizo popular en los computadores personales tenía 3.5" de largo y usaba un conector de 32 pins. Un formato más largo de 4.25", que usa 72 contactos y puede almacenar hasta 64 megabytes de RAM es actualmente el más frecuente.
Un PC usa tanto memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips de
memoria RAM dinámica) como memoria de ocho bits sin paridad. En el primer caso los ocho primeros son para datos y el noveno es para el chequeo de paridad.





DIMM :
Siglas de Dual In line Memory Module, un tipo de encapsulado, consistente en una pequeña placa de circuito impreso que almacena chips de memoria, que se inserta en un zócalo DIMM en la placa madre y usa generalmente un conector de 168 contactos.





DIP :
Siglas de Dual In line Package, un tipo de encapsulado consistente en almacenar un chip de memoria en una caja rectangular con dos filas de pines de conexión en cada lado.





RAM Disk :
Se refiere a la RAM que ha sido configurada para simular un
disco duro. Se puede acceder a los ficheros de un RAM disk de la misma forma en la que se acceden a los de un disco duro. Sin embargo, los RAM disk son aproximadamente miles de veces más rápidos que los discos duros, y son particularmente útiles para aplicaciones que precisan de frecuentes accesos a disco.
Dado que están constituidos por RAM normal. los RAM disk pierden su contenido una vez que
la computadora es apagada. Para usar los RAM Disk se precisa copiar los ficheros desde un disco duro real al inicio de la sesión y copiarlos de nuevo al disco duro antes de apagar la máquina. Observe que en el caso de fallo de alimentación eléctrica, se perderán los datos que huviera en el RAM disk. El sistema operativo DOS permite convertir la memoria extendida en un RAM Disk por medio del comando VDISK, siglas de Virtual DISK, otro nombre de los RAM Disks.





Memoria Caché ó RAM Caché :
Un caché es un
sistema especial de almacenamiento de alta velocidad. Puede ser tanto un área reservada de la memoria principal como un dispositivo de almacenamiento de alta velocidad independiente. Hay dos tipos de caché frecuentemente usados en las computadoras personales: memoria caché y caché de disco. Una memoria caché, llamada tambien a veces almacenamiento caché ó RAM caché, es una parte de memoria RAM estática de alta velocidad (SRAM) más que la lenta y barata RAM dinámica (DRAM) usada como memoria principal. La memoria caché es efectiva dado que los programas acceden una y otra vez a los mismos datos o instrucciones. Guardando esta información en SRAM, la computadora evita acceder a la lenta DRAM.
Cuando un dato es encontrado en el caché, se dice que se ha producido un impacto (hit), siendo un caché juzgado por su tasa de impactos (hit rate). Los
sistemas de memoria caché usan una tecnología conocida por caché inteligente en el cual el sistema puede reconocer cierto tipo de datos usados frecuentemente. Las estrategias para determinar qué información debe de ser puesta en el caché constituyen uno de los problemas más interesantes en la ciencia de las computadoras. Algunas memorias caché están construidas en la arquitectura de los microprocesadores. Por ejemplo, el procesador Pentium II tiene una caché L2 de 512 Kbytes.
El caché de disco trabaja sobre los mismos
principios que la memoria caché, pero en lugar de usar SRAM de alta velocidad, usa la convencional memoria principal. Los datos más recientes del disco duro a los que se ha accedido (así como los sectores adyacentes) se almacenan en un buffer de memoria. Cuando el programa necesita acceder a datos del disco, lo primero que comprueba es la caché del disco para ver si los datos ya estan ahí. La caché de disco puede mejorar drásticamente el rendimiento de las aplicaciones, dado que acceder a un byte de datos en RAM puede ser miles de veces más rápido que acceder a un byte del disco duro.





SRAM
Siglas de Static Random
Access Memory, es un tipo de memoria que es más rápida y fiable que la más común DRAM (Dynamic RAM). El término estática viene derivado del hecho que necesita ser refrescada menos veces que la RAM dinámica.
Los chips de RAM
estática tienen tiempos de acceso del orden de 10 a 30 nanosegundos, mientras que las RAM dinámicas están por encima de 30, y las memorias bipolares y ECL se encuentran por debajo de 10 nanosegundos.
Un bit de RAM
estática se construye con un --- como circuito flip-flop que permite que la corriente fluya de un lado a otro basándose en cual de los dos transistores es activado. Las RAM estáticas no precisan de circuiteria de refresco como sucede con las RAMs dinámicas, pero precisan más espacio y usan mas energía. La SRAM, debido a su alta velocidad, es usada como memoria caché.





DRAM
Siglas de Dynamic RAM, un tipo de memoria de gran capacidad pero que precisa ser constantemente refrescada (re-energizada) o perdería su contenido. Generalmente usa un
transistor y un condensador para representar un bit Los condensadores debe de ser energizados cientos de veces por segundo para mantener las cargas. A diferencia de los chips firmware (ROMs, PROMs, etc.) las dos principales variaciones de RAM (dinámica y estática) pierden su contenido cuando se desconectan de la alimentación. Contrasta con la RAM estática.
Algunas veces en los anuncios de
memorias, la RAM dinámica se indica erróneamente como un tipo de encapsulado; por ejemplo "se venden DRAMs, SIMMs y SIPs", cuando deberia decirse "DIPs, SIMMs y SIPs" los tres tipos de encapsulado típicos para almacenar chips de RAM dinámica.
Tambien algunas veces el término RAM (Random
Access Memory) es utilizado para referirse a la DRAM y distinguirla de la RAM estática (SRAM) que es más rápida y más estable que la RAM dinámica, pero que requiere más energía y es más cara





SDRAM
Siglas de Synchronous DRAM, DRAM síncrona, un tipo de
memoria RAM dinámica que es casi un 20% más rápida que la RAM EDO. SDRAM entrelaza dos o más matrices de memoria interna de tal forma que mientras que se está accediendo a una matriz, la siguiente se está preparando para el acceso. SDRAM-II es tecnología SDRAM más rápida esperada para 1998. También conocido como DDR DRAM o DDR SDRAM (Double Data Rate DRAM o SDRAM), permite leer y escribir datos a dos veces la velocidad bús.





FPM
: Siglas de Fast Page Mode, memoria en modo paginado, el
diseño más comun de chips de RAM dinámica. El acceso a los bits de memoria se realiza por medio de coordenadas, fila y columna. Antes del modo paginado, era leido pulsando la fila y la columna de las líneas seleccionadas. Con el modo pagina, la fila se selecciona solo una vez para todas las columnas (bits) dentro de la fila, dando como resultado un rápido acceso. La memoria en modo paginado tambien es llamada memoria de modo Fast Page o memoria FPM, FPM RAM, FPM DRAM. El término "fast" fué añadido cuando los más nuevos chips empezaron a correr a 100 nanoseconds e incluso más.





EDO
Siglas de Extended Data Output, un tipo de chip de RAM dinámica que mejora el rendimiento del modo de memoria Fast Page alrededor de un 10%. Al ser un subconjunto de Fast Page, puede ser substituida por chips de modo Fast Page.
Sin embargo, si el controlador de memoria no está diseñado para los más rápidos chips EDO, el rendimiento será el mismo que en el modo Fast Page.
EDO elimina los estados de espera manteniendo activo el buffer de salida hasta que comienza el próximo ciclo.
BEDO (Burst EDO) es un tipo más rápido de EDO que mejora la
velocidad usando un contador de dirección para las siguientes direcciones y un estado 'pipeline' que solapa las operaciones.





PB SRAM
Siglas de Pipeline Burst SRAM. Se llama 'pipeline' a una categoría de técnicas que proporcionan un
proceso simultáneo, o en paralelo dentro de la computadora, y se refiere a las operaciones de solapamiento moviendo datos o instrucciones en una 'tuberia' conceptual con todas las fases del 'pipe' procesando simultáneamente. Por ejemplo, mientras una instrucción se está ejecutándo, la computadora está decodificando la siguiente instrucción. En procesadores vectoriales, pueden procesarse simultáneamente varios pasos de operaciones de coma flotante

martes, 14 de abril de 2009

los procesadores cisc y risc





INTRODUCCIÓN





Una de las primeras decisiones a la hora de diseñar un microprocesador es decidir cual será su juego de instrucciones. La decisión es trascendente por dos razones; primero, el juego de instrucciones decide el diseño físico del conjunto; segundo, cualquier operación que deba ejecutarse en el microprocesador deberá poder ser descrita en términos de un lenguaje de estas instrucciones. Frente a esta cuestión caben dos filosofías de diseño; máquinas denominadas CISC y máquinas denominadas RISC.
Cuando hablamos de microprocesadores CISC, computadoras con un conjunto de instrucciones complejo, del inglés complex instruction set computer, y procesadores RISC, computadoras con un conjunto de instrucciones reducido, del inglés reduced instruction set computer, se piensa que los atributos complejo y reducido describen las diferencias entre los dos modelos de arquitectura para microprocesadores. Esto es cierto solo de forma superficial, pues se requiere de muchas otras características esenciales para definir los RISC y los CISC. Aún más, existen diversos procesadores que no se pueden asignar con facilidad a ninguna categoría determinada.
Hasta hace solo algunos años, la división era tajante: RISC se utilizaba para entornos de red, mientras que CISC se aplicaba en ordenadores domésticos. Pero en la actualidad se alzan voces que afirman que CISC está agotando sus posibilidades, mientras otras defienden fervientemente que CISC ya ha alcanzado a RISC, adoptando algunas de sus principales características.
Este trabajo expone la características esenciales de ambas arquitecturas, poniendo de manifiesto sus ventajas y desventajas.






ARQUITECTURA CISC



La tecnología CISC (Complex Instruction Set Computer) nació de la mano de Intel, creador en 1971 del primer microchip que permitiría el nacimiento de la informática personal. Más concretamente, sería en 1972 cuando aparecería el 8080, primer chip capaz de procesar 8 bits, suficiente para representar números y letras. Con la posibilidad de colocar todos los circuitos en un solo chip y la capacidad de manejar número y letras nacería la cuarta generación de ordenadores, la de los conocidos como PC u ordenadores personales.
Los microprocesadores CISC tienen un conjunto de instrucciones que se caracteriza por ser muy amplio y permitir operaciones complejas entre operandos situados en la memoria o en los registros internos.
Este tipo de arquitectura dificulta el paralelismo entre instrucciones, por lo que en la actualidad la mayoría de los sistemas CISC de alto rendimiento implementan un sistema que convierte dichas instrucciones complejas en varias instrucciones simples, llamadas generalmente microinstrucciones.
La microprogramación es una característica importante y esencial de casi todas las arquítecturas CISC. La microprogramación significa que cada instrucción de máquina es interpretada por un microprograma localizado en una memoria en el circuito integrado del procesador. Las instrucciones compuestas son decodificadas internamente y ejecutadas con una serie de microinstrucciones almacenadas en una ROM interna. Para esto se requieren de varios ciclos de reloj, al menos uno por microinstrucción. Es así entonces como los chips CISC utilizan comandos que incorporan una gran diversidad de pequeñas instrucciones para realizar una única operación.
Cuando el sistema operativo o una aplicación requiere de una de estas acciones, envía al procesador el nombre del comando para realizarla junto con el resto de información complementaria que se necesite. Pero cada uno de estos comandos de la ROM del CISC varían de tamaño y, por lo tanto, el chip debe en primer lugar verificar cuanto espacio requiere el comando para ejecutarse y poder así reservárselo en la memoria interna. Además, el procesador debe determinar la forma correcta de cargar y almacenar el comando, procesos ambos que ralentizan el rendimiento del sistema.bondades de CISC destacan las siguientes:
Reduce la dificultad de crear compiladores.
Permite reducir el costo total del sistema.
Reduce los costos de creación de sftware.
Mejora la compactación de código.
Facilita la depuración de errores.
Ejemplo de microprocesadores basados en la tecnología CISC:
Intel 8086, 8088, 80286, 80386, 80486.
Motorola 68000, 68010, 68020, 68030, 6840.

ARQUITECTURA RISC





Buscando aumentar la velocidad del procesamiento se descubrió en base a experimentos que, con una determinada arquitectura de base, la ejecución de programas compilados directamente con microinstrucciones y residentes en memoria externa al circuito integrado resultaban ser mas eficientes, gracias a que el tiempo de acceso de las memorias se fue decrementando conforme se mejoraba su tecnología de encapsulado.
La idea estuvo inspirada también por el hecho de que muchas de las características que eran incluidas en los diseños tradicionales de CPU para aumentar la velocidad estaban siendo ignoradas por los programas que eran ejecutados en ellas. Además, la velocidad del procesador en relación con la memoria de la computadora que accedía era cada vez más alta.
Debido a que se tiene un conjunto de instrucciones simplificado, éstas se pueden implantar por hardware directamente en la CPU, lo cual elimina el microcódigo y la necesidad de decodificar instrucciones complejas.



funciona de modo muy diferente a la CISC, su objetivo no es ahorrar esfuerzos externos por parte del software con sus accesos a la RAM, sino facilitar que las instrucciones sean ejecutadas lo más rápidamente posible. La forma de conseguirlo es simplificando el tipo de instrucciones que ejecuta el procesador. Así, las instrucciones más breves y sencillas de un procesador RISC son capaces de ejecutarse mucho más aprisa que las instrucciones más largas y complejas de un chip CISC. Sin embargo, este diseño requiere de mucha más RAM y de una tecnología de compilador más avanzada.
La relativa sencillez de la arquitectura de los procesadores RISC conduce a ciclos de diseño más cortos cuando se desarrollan nuevas versiones, lo que posibilita siempre la aplicación de las más recientes tecnologías de semiconductores. Por ello, los procesadores RISC no solo tienden a ofrecer una capacidad de procesamiento del sistema de 2 a 4 veces mayor, sino que los saltos de capacidad que se producen de generación en generación son mucho mayores que en los CISC.
Los comandos que incorpora el chip RISC en su ROM constan de varias instrucciones pequeñas que realizan una sola tarea. Las aplicaciones son aquí las encargadas de indicar al procesador qué combinación de estas instrucciones debe ejecutar para completar una operación mayor.
Además, los comandos de RISC son todos del mismo tamaño y se cargan y almacenan del mismo modo. Al ser estas instrucciones pequeñas y sencillas, no necesitan ser descodificadas en instrucciones menores como en el caso de los chips CISC, pues ya constituyen en sí unidades descodificadas. Por ello, el procesador RISC no gasta tiempo verificando el tamaño del comando, en descodificarlo ni en averiguar cómo cargarlo y guardarlo.
El procesador RISC puede además ejecutar hasta 10 comandos a la vez pues el compilador del software es el que determina qué comandos son independientes y por ello es posible ejecutar varios a la vez. Y al ser los comandos del RISC más sencillos, la circuitería por la que pasan también es más sencilla. Estos comandos pasan por menos transistores, de forma que se ejecutan con más rapidez. Para ejecutar una sola instrucción normalmente les basta con un ciclo de reloj.
Entre las ventajas de RISC tenemos las siguientes:

La CPU trabaja mas rápido al utilizar menos ciclos de reloj para ejecutar instrucciones.
Utiliza un sistema de direcciones no destructivas en RAM. Eso significa que a diferencia de CISC, RISC conserva después de realizar sus operaciones en memoria los dos operandos y su resultado, reduciendo la ejecución de nuevas operaciones.

Cada instrucción puede ser ejecutada en un solo ciclo del CPU
Ejemplo de microprocesadores basados en la tecnología CISC:
MIPS, Millions Instruction Per Second.
PA-RISC, Hewlett Packard.
SPARC, Scalable Processor Architecture, Sun Microsystems.
POWER PC, Apple, Motorola e IBM.

martes, 31 de marzo de 2009

el codigo colores de la resistencia




El código de colores de las resistencias
Las resistencias son elementos pasivos muy comunes en los circuitos, ya que son indispensables en cualquier diseño eléctrico o electrónico. Posteriormente conoceremos algunas de sus aplicaciones. Para identificar su valor se usa el llamado código de colores.




Tiene un cuerpo cilíndrico de uno a dos centímetros de longitud, con un segmento de alambre a cada lado. En su superficie tiene tres o cuatro bandas de colores, igualmente espaciadas, más cercanas a uno de los extremos. Si sujetamos la resistencia con la mano izquierda, por el lado donde están las bandas de colores, podemos deducir su valor si sabemos el número que representa cada color. La figura 3 es la tabla del código de colores de las resistencias. Tenemos que usarla para saber la equivalencia entre los colores y los números del 0 al 10. Por otro lado, las dos primeras bandas de izquierda a derecha corresponden a los dos primeros dígitos del valor de la resistencia. La tercera banda es la potencia de 10 por la cual debe multiplicarse los dos digitos mencionados. La cuarta banda representa la tolerancia en el valor de la resistencia. Las resistencias que usaremos en este manual tienen tres tolerancias posibles: 5%, identificadas con una banda dorada,10%, con una plateada, y 20%, sin banda. En el caso de la resistencia de la figura 1, y con ayuda de la tabla de la figura 2 podemos decir que su valor es de (24 ± 2.4) kW. Esto se obtiene viendo que la primera banda es roja = 2, la segunda, amarilla = 4, la tercera, naranja = 3, y la cuarta, plateada = 10%. El resultado se confecciona como 24 ´ 103, al 10%. El 10% de 24 es 2.4. Debemos mencionar que 103 equivale al prefijo kilo, abreviado k, en el Sistema Internacional de unidades. La resistencia se mide en ohmios, abreviados con la letra griega omega mayúscula, W. Por otro lado, 103 W = 1000 W y es lo mismo que 1 kW.




sábado, 28 de marzo de 2009






tipos de diodos y simbologia

Tipos de diodos

Diodo BARITT Diodo de avalancha
Diodo de capacidad variable Diodo de conmutación
Diodo rectificador. Diodo semiconductor.
Diodo de señal Diodo de unión
Diodo Esaki Diodo Gunn
Diodo IMPATT Diodo láser
Diodo PIN Diodo Schottky
Diodo Schokley Diodo TRAPPAT
Diodo túnel Diodo unitúnel
Diodo Zener

Diodo BARITT

(Del inglés: BARrier Injected Transit Time)

Diodo semejante al diodo IMPATT donde los portadores de carga llamados a atravesar la región de deplexión no provienen de una avalancha sino que son engendrados por inyección de portadores minoritarios en uniones polarizadas en el sentido de la conducción.

Diodo de avalancha

Diodo de rectificación en el que, mediante una técnica apropiada, se reparte la ruptura inversa, debida al fenómeno de avalancha, en todo el volumen de la unión. El diodo soporta, así, grandes corrientes en conducción inversa sin destruirse.

Diodo de capacidad variable (VARACTOR o VARICAP)

Diodo semiconductor con polarización inversa cuya capacidad entre los terminales disminuye en función de la tensión inversa aplicada entre sus extremos.

Diodo de conmutación

Diodo semiconductor diseñado para presentar una transición rápida entre el estado de conducción y el estado de bloqueo, y a la inversa.


Diodo rectificador.

Diodo de potencia media o alta que se utiliza para rectificar las corrientes alternas.


Diodo semiconductor.

Diodo que permite el paso de la corriente de su zona p, rica en huecos, a su zona n, rica en electrones.

Diodo de señal

Diodo semiconductor empleado para la detección o el tratamiento de una señal eléctrica de baja potencia.

Diodo de unión

Diodo formado por la unión de un material semiconductor de tipo n y otro semiconductor de tipo p.

Diodo Gunn

Dispositivo semiconductor impropiamente calificado de diodo ya que no contiene una unión sino una sucesión de tres capas de tipo n más o menos dopadas. En presencia de campos eléctricos elevados, el diodo Gunn es escenario de oscilaciones a muy alta frecuencia.

diodo IMPATT

Diodo cuyo funcionamiento asocia la multiplicación por avalancha de los portadores de carga y su tiempo de propagación en la unión. Esto conduce, para ciertas frecuencias muy elevadas, a una resistencia negativa que permite utilizar el diodo en modo amplificador o en modo oscilador.
odo láser

Diodo electroluminescente (LED) cuya estructura contiene una cavidad óptica y que está concebido de modo que permita la emisión estimulada, y por tanto la radiación de una onda luminosa quasi-monocromática y coherente (laser).

Diodo PIN

Unión pn semiconductora que posee dos regiones, una fuertemente dopada n, representada como n++, y otra fuertemente dopada p, representada por p++, y una zona intrínseca de dopado muy débil.


Diodo Schottky

Diodo formado por un contacto entre un semiconductor y un metal, lo que elimina el almacenamiento de carga y el tiempo de recuperación. Un diodo Schottky puede rectificar corrientes de frecuencia superior a 300 MHz.

Diodo Schokley

Diodo de cuatro capas p-n-p-n utilizado en los circuitos de conmutación rápida. Además, la tensión directa de este diodo es más baja que en la de un diodo semiconductor de dos regiones.

Diodo TRAPPAT
Diodo de hiperfrecuencia de semiconductores que, cuando su unión se polariza en avalancha, presenta una resistencia negativa a frecuencias inferiores al dominio de frecuencias correspondiente al tiempo de tránsito del diodo. Esta resistencia negativa se debe a la generación y desaparición de un plasma de electrones y huecos que resultan de la íntima interacción entre el diodo y una cavidad de hiperfrecuencias de resonancias múltiples.

Diodo túnel

Diodo semiconductor que tiene una unión pn, en la cual se produce el efecto túnel que da origen a una conductancia diferencial negativa en un cierto intervalo de la característica corriente-tensión.

La presencia del tramo de resistencia negativa permite su utilización como componente activo (amplificador/oscilador).

Diodo unitúnel

Diodo túnel cuyas corrientes de pico y valle son aproximadamente iguales.

Diodo Zener

Diodo optimizado, mediante la elección del índice de dopado, para su funcionamiento en una región de ruptura inversa, a una tensión ampliamente independiente de la intensidad. Los diodos Zener se utilizan en reguladores de tensión.

jueves, 26 de marzo de 2009









Clientes dos:Versiones 3.0 y 3.2 de Microsoft Mail para Windows y Microsoft Mail para redes de PC, la estación de trabajo de MS-DOS, implementar el almacenamiento de la carpeta privada de maneras diferentes. El cliente de Windows almacena carpetas privadas en el archivo de mensaje Mail (.MMF) y el cliente MS-DOS almacena las carpetas en los archivos .FLD en la estructura de base de datos de oficina de correos.

Es mejor para los usuarios utilizar clientes tanto el MS-DOS y Windows para usar las carpetas privadas sólo en uno de los clientes. Sin embargo, una solución existe si se requiere de ambos clientes acceso a la carpeta privada. Las siguientes son los pasos para solucionar el problema:

Nota: un efecto de parte de esta solución es que el grupo aparecerá en la lista de direcciones de oficina de correos, así como la lista global de direcciones en la oficina de correos donde reside el grupo. Utilice esta solución con criterio.
1. Iniciar sesión en el programa Administrator como administrador y seleccione Modificar para conceder privilegios de carpeta de grupo para el usuario que requiere acceso de la carpeta privada de ambos clientes, administrador local.
2. Seleccione local de administrador, grupo, crear para crear un grupo global, especificando el miembro único del grupo como el usuario que requiere acceso de la carpeta privada de ambos clientes.

Nota: no incluyen el grupo en la sincronización de directorios.
3. Inicie sesión en el cliente MS-DOS como ese usuario. Seleccione opciones, carpetas, crear para crear una carpeta de grupo para ese grupo. Asegúrese de que especificar el modo de carpeta al grupo.

Nota: las carpetas de grupo sólo pueden ser crear en el cliente MS-DOS.
Dado que la persona es la única persona que tiene acceso a la carpeta de grupo, la carpeta ahora se comporta como una carpeta privada. El administrador debe procurar no asignar los miembros adicionales que también tengan privilegios de carpeta de grupo para el grupo.

La carpeta de grupo se almacena en un archivo .FLD que puede obtener sólo acceso por el cliente de Windows cuando está conectado a la oficina de correos. Esta carpeta no está accesible cuando se trabaja sin conexión.

En el cliente de Windows, todas las carpetas de grupo aparecen en el panel de carpetas compartidas. La carpeta de grupo no aparecerá en el panel de carpetas privadas.

Nota: acceso de carpeta de grupo no estaba disponible en el cliente de Windows en las versiones anteriores a 3.0b.
Windows NT
Artículos principales: Windows NT y Windows NT 3.x
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.
Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.
Windows 95
Artículo principal: Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998
Windows 98
Artículo principal: Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.
Windows 98 Second Edition (SE)
Artículo principal: Windows 98 SE
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
Windows Millenium Edition (ME)
Artículo principal: Windows ME
En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.
Windows 2000
Artículo principal: Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
• Soporte para FAT16, FAT32 y NTFS.
• Cifrado de ficheros (EFS).
• Servicio de indexación.
• Sistema de archivos distribuido (DFS).
• Nuevo sistema de backup (ASR).
• Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
• Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
• Nueva versión de IIS con soporte para HTTP/1.1.
• Active Directory.
• Balanceo de carga (clustering)
• Servicios de instalación desatendida por red (RIS).
• Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.
Windows XP (eXPerience)
Artículo principal: Windows XP
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).
Windows Server 2003
Artículo principal: Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).
Windows Vista
Artículo principal: Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP.
Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoria de los usuarios regresen a su antecesor Windows XP o migrar a Mac OS X o Linux.
Windows Server 2008
Artículo principal: Windows Server 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última version del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.
Windows NT
Artículos principales: Windows NT y Windows NT 3.x
Mientras tanto Microsoft continuó desarrollando Windows NT. Para ello reclutaron a Dave Cutler, uno de los jefes analistas de VMS en Digital Equipment Corporation (hoy parte de Compaq, que en 2005 fue comprada por HP) para convertir NT en un sistema más competitivo.
Cutler había estado desarrollando un sucesor del VMS en DEC (Digital Equipment Corporation) llamado Mica, y cuando DEC abandonó el proyecto se llevó sus conocimientos y algunos ingenieros a Microsoft. DEC también creyó que se llevaba el código de Mica a Microsoft y entabló una demanda. Microsoft finalmente pagó 150 millones de dólares y acordó dar soporte al microprocesador Alpha de DEC en NT.
Siendo un sistema operativo completamente nuevo, Windows NT sufrió problemas de compatibilidad con el hardware y el software existentes. También necesitaba gran cantidad de recursos y éstos estaban solamente disponibles en equipos grandes y caros. Debido a esto muchos usuarios no pudieron pasarse a Windows NT. La interfaz gráfica de NT todavía estaba basada en la de Windows 3.1 que era inferior a la Workplace Shell de OS/2
Windows NT 3.1
Windows NT 3.1 (la estrategia de marketing de Microsoft era que Windows NT pareciera una continuación de Windows 3.1) apareció en su versión beta para desarrolladores en la Conferencia de Desarrolladores Profesionales de julio de 1992 en San Francisco. Microsoft anunció en la conferencia su intención de desarrollar un sucesor para Windows NT y Chicago (que aún no había sido lanzada). Este sucesor habría de unificar ambos sistemas en uno sólo y su nombre clave era Cairo. (Visto en retrospectiva Cairo fue un proyecto más difícil de lo que Microsoft había previsto y como resultado NT y Chicago no sería unificados hasta la aparición de Windows XP). Las versiones antiguas de Windows NT se distribuían en disquettes y requerían unos elevados recursos de hardware (además de soportar relativamente poco hardware) por lo que no se difundieron demasiado hasta llegar a Windows NT 4.0 y sobre todo a Windows 2000. Por primera vez daba soporte para el sistema de ficheros NTFS.
Windows NT 3.5/3.51
Cabe destacar que la interfaz gráfica de Windows NT 3.5 y Windows 3.51 era la misma que la de sus predecesores, Windows NT 3.1 y Windows 3.1, con el Administrador de Programas. Por otra parte, Microsoft distribuyó un añadido llamado NewShell, cuyo nombre completo es "Shell Technology Preview Update", que no era otra cosa más que una versión Beta de la nueva interfaz gráfica de Windows 95 y NT 4.0, con el botón y menú inicio, pero para Windows NT 3.5x. Su función principal era que los usuarios de Windows evaluaran el nuevo interfaz gráfico, que iba a ser presentado en Windows 95 y NT 4.0, pero como "daño colateral" le daba a Windows NT 3.5x la nueva interfaz gráfica.
Windows NT 4.0
Windows NT 4.0 presentaba varios componentes tecnológicos de vanguardia y soporte para diferentes plataformas como MIPS, ALPHA, Intel, etc. Las diferentes versiones como Workstation, Server, Terminal server, Advancer server, permitían poder adaptarlo a varias necesidades. El uso de componentes como tarjetas de sonido, módems, etc, tenían que ser diseñados específicamente para este sistema operativo.
Windows 95
Artículo principal: Windows 95
Microsoft adoptó "Windows 95" como nombre de producto para Chicago cuando fue publicado en agosto de 1995. Chicago iba encaminado a incorporar una nueva interfaz gráfica que compitiera con la de OS/2. Aunque compartía mucho código con Windows 3.x e incluso con MS-DOS, también se pretendía introducir arquitectura de 32 bits y dar soporte a multitarea preemptiva, como OS/2 o el mismo Windows NT. Sin embargo sólo una parte de Chicago comenzó a utilizar arquitectura de 32 bits, la mayor parte siguió usando una arquitectura de 16 bits, Microsoft argumentaba que una conversión completa retrasaría demasiado la publicación de Chicago y sería demasiado costosa.
Microsoft desarrolló una nueva API para remplazar la API de Windows de 16 bits. Esta API fue denominada Win32, desde entonces Microsoft denominó a la antigua API de 16 bits como Win16. Esta API fue desarrollada en tres versiones: una para Windows NT, otra para Chicago y otra llamada Win32s, que era un subconjunto de Win32 que podía ser utilizado en sistemas con Windows 3.1.; de este modo Microsoft intentó asegurar algún grado de compatibilidad entre Chicago y Windows NT, aunque los dos sistemas tenían arquitecturas radicalmente diferentes
Windows 95 tenía dos grandes ventajas para el consumidor medio. Primero, aunque su interfaz todavía corría sobre MS-DOS, tenía una instalación integrada que le hacía aparecer como un solo sistema operativo (ya no se necesitaba comprar MS-DOS e instalar Windows encima). Segundo, introducía un subsistema en modo protegido que estaba especialmente escrito a procesadores 80386 o superiores, lo cual impediría que las nuevas aplicaciones Win32 dañaran el área de memoria de otras aplicaciones Win32. En este respecto Windows 95 se acercaba más a Windows NT, pero a la vez, dado que compartía código de Windows 3.x, las aplicaciones podían seguir bloqueando completamente el sistema en caso de que invadiesen el área de aplicaciones de Win16.
Tenía también como novedad el incluir soporte para la tecnología Plug&Play. Windows 95 se convirtió en el primer gran éxito de los de Redmond a nivel mundial. La evolución de Internet y la potencia de los equipos, cada vez más capaces, dio lugar a un binomio en el que Intel y Microsoft dominaban el panorama mundial con solvencia. Los fabricantes comenzaban a volcarse en este sistema a la hora de sacar sus controladores de dispositivos y, aunque con algunos problemas por incompatibilidades inevitables, el éxito de la plataforma fue absoluto.
Más adelante fue lanzada una versión con compatibilidad para USB (1.0) que permitía ejecutarse en computadores (ordenadores) con pocas prestaciones en Hardware. Esta versión salió al mercado en octubre de 1998
Windows 98
Artículo principal: Windows 98
El 25 de junio de 1998 llegó Windows 98. Incluía nuevos controladores de hardware y el sistema de ficheros FAT32 (también soportado por Windows 95 OSR 2 y OSR 2.5) que soportaba particiones mayores a los 2 GB permitidos por Windows 95. Dio soporte también a las nuevas tecnologías como DVD, FireWire, USB o AGP. Era novedosa también la integración del explorador de Internet en todos los ámbitos del sistema.
Pero la principal diferencia de Windows 98 sobre Windows 95 era que su núcleo había sido modificado para permitir el uso de controladores de Windows NT en Windows 9x y viceversa. Esto se consiguió con la migración de parte del núcleo de Windows NT a Windows 98, aunque éste siguiera manteniendo su arquitectura MS-DOS/Windows GUI. Esto permitió la reducción de costes de producción, dado que Windows NT y Windows 98 ahora podían utilizar casi idénticos controladores.
Windows 98 Second Edition (SE)
Artículo principal: Windows 98 SE
A principios de 1998 se desarrolló este sistema operativo, saliendo al mercado a finales de 1998, cuando Microsoft sacó al mercado Windows 98 Second Edition, cuya característica más notable era la capacidad de compartir entre varios equipos una conexión a Internet a través de una sola línea telefónica. También eliminaba gran parte de los errores producidos por Internet Explorer en el sistema. Esta versión es la más estable de todas las de esta serie, y aún se sigue utilizando en muchos equipos, mejorando en sí dos cosas importantes:
1) El grave error de solicitud de licencia que simplemente se puede dejar pasar por alto en la instalación cuando se copian los archivos con extensión ".CAB" (sin comillas) a la unidad de disco duro de la computadora (CPU u ordenador) en la primera versión de este sistema operativo
2) Se corrigen las extensiones de archivo y aplicaciones para una optimización y mejor administración de memoria virtual, reduciendo así los famosos mensajes de error en pantalla azul.
Windows Millenium Edition (ME)
Artículo principal: Windows ME
En 2000 Microsoft introdujo Windows ME, que era una copia de Windows 98 con más aplicaciones añadidas. Windows ME fue un proyecto rápido de un año para rellenar el hueco entre Windows 98 y el nuevo Windows XP, y eso se notó mucho en la poca estabilidad de esta versión. En teoría, Windows 2000 iba a ser la unificación entre las dos familias de Windows, la empresarial y la de hogar, pero por retrasos se lanzó este pequeño avance. En esta versión se aceleraba el inicio del sistema y oficialmente ya no se podía distinguir entre el MS-DOS y el entorno gráfico (aunque aparecieron parches que permitían volver a separarlo como se hacía en versiones anteriores).
Esta versión no traía unidad de proceso de 16 bits y se centró únicamente en la compatibilidad con nuevo hardware de 32 bits. Como consecuencia, sólo funcionaba correctamente con los equipos nuevos que lo tenían instalado, ya que si se instalaba sobre un equipo antiguo (mediante una actualización de software) el hardware de 16 bits era más complejo de configurar, o bien no funcionaba en absoluto.
Cabe destacar que este sistema operativo fue muy poco popular por sus continuos errores y muchas desventajas de uso. Estos inconvenientes hicieron que, salvo en contadas ocasiones, sus usuarios retornaran rápidamente al uso de Windows 98, o bien que dieran el salto a Windows 2000.
Windows 2000
Artículo principal: Windows 2000
En este mismo año vio la luz Windows 2000, una nueva versión de Windows NT muy útil para los administradores de sistemas y con una gran cantidad de servicios de red y lo más importante: admitía dispositivos Plug&Play que venían siendo un problema con Windows NT.
La familia de Windows 2000 estaba formada por varias versiones del sistema: una para las estaciones de trabajo (Windows 2000 Professional) y varias para servidores (Windows 2000 Server, Advanced Server, Datacenter Server).
Windows 2000 incorporaba importantes innovaciones tecnológicas para entornos Microsoft, tanto en nuevos servicios como en la mejora de los existentes. Algunas de las características que posee son:
Almacenamiento:
• Soporte para FAT16, FAT32 y NTFS.
• Cifrado de ficheros (EFS).
• Servicio de indexación.
• Sistema de archivos distribuido (DFS).
• Nuevo sistema de backup (ASR).
• Sistema de tolerancia a fallos (RAID) con discos dinámicos (software).
Comunicaciones:
• Servicios de acceso remoto (RAS, VPN, RADIUS y Enrutamiento).
• Nueva versión de IIS con soporte para HTTP/1.1.
• Active Directory.
• Balanceo de carga (clustering)
• Servicios de instalación desatendida por red (RIS).
• Servicios nativos de Terminal Server.
Estos avances marcan un antes y un después en la historia de Microsoft.
Windows XP (eXPerience)
Artículo principal: Windows XP
La unión de Windows NT/2000 y la familia de Windows 9.x se alcanzó con Windows XP puesto en venta en 2001 en su versión Home y Professional. Windows XP usa el núcleo de Windows NT. Incorpora una nueva interfaz y hace alarde de mayores capacidades multimedia. Además dispone de otras novedades como la multitarea mejorada, soporte para redes inalámbricas y asistencia remota. Se puede agregar que inmediatamente después de haber lanzado el último Service Pack (SP2), Microsoft diseñó un sistema orientado a empresas y corporaciones, llamado Microsoft Windows XP Corporate Edition, algo similar al Windows XP Profesional, solo que diseñado especialmente para empresas. En el apartado multimedia, XP da un avance con la versión Media Center(2002-2005). Esta versión ofrece una interfaz de acceso fácil con todo lo relacionado con multimedia (TV, fotos, reproductor DVD, Internet...).
Windows Server 2003
Artículo principal: Windows Server 2003
Sucesor de la familia de servidores de Microsoft a Windows 2000 Server. Es la versión de Windows para servidores lanzada por Microsoft en el año 2003. Está basada en el núcleo de Windows XP, al que se le han añadido una serie de servicios, y se le han bloqueado algunas de sus características (para mejorar el rendimiento, o simplemente porque no serán usadas).
Windows Vista
Artículo principal: Windows Vista
Windows Vista apareció en el mercado el 30 de enero de 2007. Cabe destacar los continuos retrasos en las fechas de entrega del sistema operativo. Inicialmente se anunció su salida al mercado a inicios-mediados de 2006; posteriormente y debido a problemas durante el proceso de desarrollo, se retrasó su salida hasta finales de 2006. El último retraso trasladó la fecha hasta finales de enero de 2007. Estos continuos retrasos han llevado a Microsoft a tomar diversas medidas para minimizar los gastos extras derivados de los retrasos. Por ejemplo, en Argentina, se podrá comprar Windows Vista con un "ticket" que la persona adquiere al momento de comprar un nuevo PC que no tiene instalado todavía Windows Vista. Podrán canjear el "ticket" por una copia original de Windows Vista y así actualizar su sistema. También cabe destacar que Windows Vista trae una nueva interfaz gráfica llamada Aero, que es una evolución de la interfaz gráfica denominada Luna de Windows XP.
Este sistema operativo, como el Windows ME, ha sido criticado por su falta de compatibilidad, entre otras cosas, haciendo que la mayoria de los usuarios regresen a su antecesor Windows XP o migrar a Mac OS X o Linux.
Windows Server 2008
Artículo principal: Windows Server 2008
Al igual que su sucesor, Windows Server 2003 se basaba en la última version del SO doméstica publicada. Éste se basa en Windows Vista en cuanto a su interfaz Aero, mucho más amigable y sencilla, y en Windows Server 2003 SP2.
Ubuntu es una distribución Linux que ofrece un sistema operativo predominantemente enfocado a ordenadores de escritorio aunque también proporciona soporte para servidores.
Basada en Debian GNU/Linux, Ubuntu concentra su objetivo en la facilidad de uso, la libertad en la restricción de uso, los lanzamientos regulares (cada 6 meses) y la facilidad en la instalación. Ubuntu es patrocinado por Canonical Ltd., una empresa privada fundada y financiada por el empresario sudafricano Mark Shuttleworth.
El nombre de la distribución proviene del concepto zulú y xhosa de ubuntu, que significa “humanidad hacia otros” o “yo soy porque nosotros somos”. Ubuntu es un movimiento sudafricano encabezado por el obispo Desmond Tutu, quien ganó el Premio Nobel de la Paz en 1984 por sus luchas en contra del Apartheid en Sudáfrica. El sudafricano Mark Shuttleworth, mecenas del proyecto, se encontraba muy familiarizado con la corriente. Tras ver similitudes entre los ideales de los proyectos GNU, Debian y en general con el movimiento del software libre, decidió aprovechar la ocasión para difundir los ideales de Ubuntu. El eslogan de Ubuntu – “Linux para seres humanos” (en inglés “Linux for Human Beings”) – resume una de sus metas principales: hacer de Linux un sistema operativo más accesible y fácil de usar.
openSUSE
OpenSUSE es el nombre de la distribución y proyecto libre auspiciado por Novell para el desarrollo y mantenimiento de un sistema operativo basado en linux. Antes de la aparición de openSUSE, el desarrollo de esta distribución, anteriormente conocida como SUSE Linux, se realizaba a puerta cerrada. Ahora, el proceso está abierto a cualquier programador y usuario que desee contribuir al desarrollo de openSUSE.
La formación de esta comunidad, fue anunciada por Novell en el año 2005.
Mandriva Linux (antes Mandrakelinux y Mandrake Linux) es una distribución Linux aparecida en julio de 1998 propiedad de Mandriva, enfocada a principiantes o usuarios medios.
Se distribuye mediante la licencia GNU GPL, y es posible descargar su distribución en formato ISO, sus asistentes o sus repositorios.
La primera edición se basó en Red Hat Linux (versión 5.1) y escogió el entorno gráfico de KDE (versión 1.0). Desde entonces ha seguido su propio camino, separado de Red Hat y ha incluido numerosas herramientas propias o modificadas, fundamentalmente dirigidas a facilitar la configuración del sistema. Mandrake (su anterior nombre) también es conocida por compilar sus paquetes con optimizaciones para procesadores Pentium y superiores, incompatibles con versiones más antiguas tales como 386 y 486.
Características
Las principales características de Mandriva Linux son:
Internacionalización
Mandriva Linux está disponible en unos 74 idiomas. Especialmente de calidad son sus traducciones al español, catalán y portugués.
Fedora : Distribuciones principales de Linux
.
• Ubuntu : descripción de Ubuntu, descarga, características de Ubuntu
• OpenSuSE
• Fedora
• Mandriva
• Slackware
• Debian
• Gentoo
• PcLinuxOS
• Review de SliTaz GNU/Linux 1.0
• Review de PCLinuxOS 2007
• Review de Linux Mint 4.0 - Daryna
• Review de Damn Small Linux 4.2.5
• Review de Ubuntu Hardy Heron 8.04
• Review de Kubuntu Hardy Heron 8.04
• Xubuntu : Review de Xubuntu Hardy Heron 8.04
• Review de Kubuntu KDE4 Hardy Heron 8.04
antes Fedora Core (tcc Fedora Linux), es una distribución GNU/Linux desarrollada por la comunidad Fedora y promovida por la compañía estadounidense Red Hat.
El objetivo del proyecto Fedora es conseguir un sistema operativo de propósito general y basado exclusivamente en software libre con el apoyo de la comunidad Linux. Los ingenieros de Red Hat continúan participando en la construcción y desarrollo de este proyecto e invitan y fomentan la participación de miembros de la comunidad Linux.
Originalmente, Red Hat Linux fue desarrollado exclusivamente dentro de Red Hat, con la sola realimentación de informes de usuarios que recuperaban fallos y contribuciones a los paquetes de software incluidos; y no contribuciones a la distribución como tal. Esto cambió el 22 de septiembre de 2003, cuando Red Hat Linux se derivó dando origen al Proyecto Fedora que está orientado a la comunidad de usuarios y así mismo, sirve de base para que Red Hat Enterprise Linux se desarrolle con más efectividad y adopte las nuevas características que se añaden en el Proyecto Fedora.
Este modelo es similar a la relación entre Netscape Communicator y Mozilla Firefox, o entre StarOffice y OpenOffice.org, aunque en este caso, el producto comercial resultante es software libre.
Repositorios
Esta distribución contenía la palabra Core en su nombre (hasta la versión 6) debido a que incluía únicamente los componentes esenciales del sistema operativo. Para poder disponer de nuevos programas (o funcionalidades) era necesario utilizar los repositorios.
Fedora dispone de tres repositorios fundamentales:
• Core: en el cual se encuentran los paquetes esenciales.
• Extras: en el cual se encuentran los paquetes más utilizados o demandandos.
• Updates: en el cual se encuentran las actualizaciones periódicas.
Esto cambia con Fedora 7, el cual deja de distinguir entre Core y Extras, por ello desaparece el Core del nombre de release.
Actualmente, Fedora recomienda (o utiliza) únicamente aquellos repositorios que disponen de paquetes de software libre, o código abierto, sin problemas de patentes. Ejemplos de paquetes problemáticos a nivel de patentes son determinados códecs de audio, módulos NTFS o drivers de ATI y NVIDIA.