manual de montaje y reparacion de pc
Fondo Ludovico Rutten
- Curso de montaje de ordenadores y redes 2
historia de la computadora
La computadora no es invención de nadie en particular, sino el resultado de ideas y logros de muchas personas involucradas en electrónica, ingeniería, materiales semiconductores, lógica, álgebra y programación.
calculadoras
Los primeros rastros de cálculo se remontan al año 3000 a. Los babilonios, que vivían en la antigua Mesopotamia, usaban pequeñas bolas de semillas o guijarros como "cuentas" agrupadas en palos.
Más tarde, en el año 1800 aC, un matemático babilónico ideó los algoritmos que permitieron resolver problemas de aritmética numérica. Un algoritmo es un conjunto ordenado de operaciones que encajan en un cálculo.
Ábaco
Los chinos desarrollaron el ábaco, con el que hacían cálculos rápidos y complejos. Este instrumento tenía una estructura de madera con cuerdas horizontales con bolas perforadas que iban de izquierda a derecha.
En el siglo XVII, John Napier, un matemático escocés famoso por inventar los logaritmos (funciones matemáticas que convierten la multiplicación en suma y la división en resta) inventó un palo con números impresos que, gracias a un ingenioso y complejo mecanismo, le permitía realizar multiplicaciones. y operaciones de división. En 1642, el físico y matemático francés Blaise Pascal inventó la primera calculadora mecánica. A la edad de 18 años, construyó un dispositivo con 8 engranajes, cada uno de los cuales iba de un paso al siguiente al completar una revolución. Estaban marcados con números del 0 al 9 y había dos para decimales para que pudiera manejar números entre 000000.01 y 999999.99. Estaban acodados, por lo que para sumar o restar había que dar el número de vueltas correspondiente en un sentido o en el otro. Treinta años después, el filósofo y matemático alemán Leibnitz inventó una calculadora que podía multiplicar, dividir y hacer raíces cuadradas en sistemas binarios. A la edad de 26 años aprendió matemáticas por sí mismo e inventó el cálculo infinitesimal, un honor que comparte con Newton.
En 1801, el francés Joseph Marie Jacquard usó un mecanismo de perforación para controlar el patrón formado por hilos de tela hechos por un telar. Estas plantillas o formas de metal perforado permitían programar las costuras de la tela, lo que lograba una variedad de patrones y formas.
En 1879, a la edad de 19 años, Herman Hollerith fue contratado como asistente en la Oficina del Censo de los Estados Unidos y desarrolló un sistema de conteo usando tarjetas perforadas, donde los agujeros representaban el sexo, la edad, la raza, etc. Gracias a la máquina de Hollerith, el censo de 1890 tomó dos años y medio, cinco años menos que el censo de 1880.
Fondo Ludovico Rutten
- Curso de montaje de ordenadores y redes 3
Hollerith dejó la Oficina del Censo en 1896 para iniciar su propia empresa, Tabulating Machine Company. Para 1900, había desarrollado una máquina que podía clasificar 300 tarjetas por minuto (en lugar de 80 durante el censo), una máquina perforadora de tarjetas y una máquina contadora semiautomática. En 1924, Hollerith fusionó su empresa con otras dos para formar International Business Machines, ahora mundialmente conocida como IBM.
calculadora digital
A principios de la década de 1930, John Vincent Atanasoff, un estadounidense con un doctorado en física teórica e hijo de un ingeniero eléctrico y profesor búlgaro expatriado, descubrió que los problemas que tenía que resolver requerían demasiada aritmética. Entusiasta de la electrónica y familiarizado con la máquina de Pascal y las teorías de Babbage, comenzó a estudiar la posibilidad de construir una calculadora digital. Decidió que la máquina tendría que trabajar en binario y hacer los cálculos de manera diferente a las calculadoras mecánicas.
Con $650 donados por el Consejo de Investigación del Estado de Iowa, aseguró la cooperación de Clifford Berry, un estudiante de ingeniería, y materiales para un modelo experimental. Más tarde recibió donaciones adicionales por un total de $ 6,460. Este primer dispositivo se conoció como ABC Atanasoff-Berry-Computer.
Segunda Guerra Mundial
Casi al mismo tiempo que Atanasoff, el ingeniero John Mauchly se había encontrado con los mismos problemas de velocidad informática y estaba convencido de que había una manera de acelerar el proceso electrónicamente. Sin medios económicos, construyó una pequeña calculadora digital y asistió a la conferencia de la Asociación Estadounidense para el Avance de la Ciencia para presentar un artículo sobre ella. Allí, en diciembre de 1940, conoció a Atanasoff, y su intercambio de ideas condujo a una disputa sobre la autoría de la computadora digital.
En 1941, Mauchly se matriculó en clases en la Escuela Moore de Ingeniería Eléctrica de la Universidad de Pensilvania, donde conoció a John Presper Eckert, un instructor de laboratorio. La escuela de Moore estaba entonces trabajando en un proyecto conjunto con el Ejército para construir mesas de tiro para armas balísticas. La cantidad de cálculos necesarios era enorme, tanto que se necesitaban unos treinta días para completar una tabla con una calculadora analógica. Sin embargo, era unas 50 veces más rápido que un humano con una máquina sumadora de escritorio.
ENIAC
Mauchly publicó un artículo que contenía sus ideas y las de Atanasoff, lo que atrajo el interés de Herman Goldstine, un oficial de reserva que trabajaba con la universidad y el Ejército, quien logró interesar al Departamento de Artillería en la financiación de una computadora digital. El 9 de abril de 1943, Mauchly y Eckert recibieron permiso para comenzar el desarrollo del diseño. Fue nombrado ENIAC (Integrador y Calculador Numérico Electrónico) y comenzó a funcionar en una instalación militar estadounidense en el campo de pruebas de Aberdeen en agosto de 1947.
Fondo Ludovico Rutten
- Curso de montaje de ordenadores y redes 4
Tomó 4 años construirlo y costó $ 486,804.22 (el equivalente actual de alrededor de $ 3 millones por menos poder de cómputo del que está disponible en las computadoras de mano en la actualidad).
El ENIAC tenía 19.000 tubos de vacío, 1.500 relés, 7.500 interruptores, cientos de miles de resistencias, condensadores e inductores y 500 millas de cable, todo funcionando a una velocidad de reloj de 100.000 ciclos por segundo. Tenía 20 acumuladores de 10 dígitos, podía sumar, restar, multiplicar y dividir, y tenía tres tablas de funciones. La entrada y salida de datos se realizó mediante tarjetas perforadas. Podría realizar alrededor de 5000 adiciones por segundo (que es muy poco en comparación con las capacidades de las computadoras actuales). Pesaba alrededor de 30 toneladas y era del tamaño de un salón de clases. Consumía 200 kilovatios de electricidad —una computadora personal moderna usa solo 200 vatios y es más potente— y necesitaba un acondicionador de aire para disipar el gran calor que producía. En promedio, una de las válvulas fallaba cada tres horas de uso.
Lo que marcó a ENIAC como una computadora moderna no fue solo su velocidad computacional, sino el hecho de que le permitía realizar tareas que antes eran imposibles.
Enigma.
Entre 1939 y 1944, Howard Aiken de la Universidad de Harvard, en colaboración con IBM, desarrolló la Mark 1, conocida como Calculadora Automática de Secuencia Controlada. Era una computadora electromecánica que tenía 16 metros de largo y unos 2 metros de alto. Tenía 700.000 piezas móviles y cientos de kilómetros de cable. Podría realizar las cuatro funciones básicas y trabajar con información almacenada en forma de tablas. Trabajó con números de hasta 23 dígitos y podía multiplicar tres números de 8 dígitos en 1 segundo.
El Mark 1 y sus versiones posteriores tenían la ventaja de ser similares al tipo de máquina de Babbage, aunque operaban en código decimal en lugar de binario.
Los avances que estas máquinas electromecánicas trajeron a las computadoras fueron eclipsados rápidamente por la ENIAC con sus circuitos electrónicos.
Alan Turing, un matemático inglés, descifra los códigos secretos de Enigma utilizados por la Alemania nazi para sus comunicaciones. Turing fue pionero en el desarrollo de la lógica computacional moderna y uno de los primeros en abordar el tema de la inteligencia artificial con máquinas.
Norbert Wiener, trabajó con la Fuerza Aérea de los Estados Unidos y estudió las bases matemáticas de la comunicación de información y el control de un sistema para derribar aeronaves. En 1948, publicó sus hallazgos en un libro titulado CYBERNETICS (Cibernética), palabra derivada del griego "piloto" y ampliamente utilizada para denotar la automatización de procesos.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 5
computadora Z3
La computadora Z3, creada por Konrad Zuse, fue la primera máquina completamente automática y programable, características utilizadas para definir una computadora. Fue construido con 2200 relés, tenía una frecuencia de reloj de ~5 Hz y una longitud de palabra de 22 bits. Los cálculos se realizaron usando aritmética de coma flotante binaria pura. La máquina se completó en 1941 (el 12 de mayo del mismo año se presentó ante una audiencia de científicos en Berlín). El Z3 original fue destruido en 1944 durante el bombardeo aliado de Berlín. Una réplica completamente funcional fue construida en la década de 1960 por la empresa de los creadores, Zuse KG, y se encuentra en exhibición permanente en el Deutsches Museum. En 1998, se demostró que el Z3 era Turing completo.
La posguerra: cronología
1946 John Von Neumann propuso una versión modificada de ENIAC. EDVAC, que se construyó en 1952. Esta máquina tenía dos grandes diferencias con la ENIAC: primero, usaba aritmética binaria, lo que simplificaba mucho los circuitos de cálculo electrónico. En segundo lugar, te permitía trabajar con un programa guardado. El ENIAC se programó conectando cientos de enchufes y encendiendo una pequeña cantidad de interruptores. Cuando hubo que solucionar otro problema, hubo que cambiar todas las conexiones, proceso que llevó muchas horas.
Von Neumann propuso vincular una serie de comandos y ejecutarlos bajo un control centralizado. Incluso sugirió que los códigos de operación que controlarían las funciones deberían almacenarse de la misma manera que los datos en forma binaria. De esta forma, el EDVAC no necesitaba ser recableado para cada nuevo programa, pudiendo procesar instrucciones tan rápido como los datos. Además, el programa podría cambiarse ya que las instrucciones almacenadas, como los datos, podrían manipularse numéricamente.
1951, Eckert y Mauchly entregan su primera computadora a la Oficina del Censo: la UNIVAC-I. Más tarde apareció la UNIVAC-II con memoria de núcleo magnético, que la habría hecho superior a su antecesora, pero debido a muchos problemas, esta máquina no vio la luz hasta 1957, cuando había perdido su liderazgo en el mercado. IBM 705.
En 1953, IBM produjo su primera computadora para aplicaciones científicas: la IBM 705, la primera computadora en utilizar memorias con núcleo de ferrita.
Fondo Ludovico Rutten
- Curso de montaje de ordenadores y redes 6
1958 vio el comienzo de la segunda generación de computadoras, caracterizada por el uso de circuitos de transistores en lugar de tubos. Un transistor y un tubo realizan funciones similares, por lo que cada tubo puede ser reemplazado por un transistor. Un transistor puede ser del tamaño de un alimentador de patos, mientras que un tubo de vacío es más grande que una escopeta. Mientras que los voltajes de alimentación de las válvulas rondaban los 300 voltios, los de los transistores eran de 10 voltios, lo que significa que los otros elementos del circuito también podrían ser más pequeños ya que tienen que disipar y soportar voltajes mucho más altos. Un transistor es un elemento que está compuesto básicamente de silicio o germanio. Su vida media es prácticamente ilimitada y en todo caso mucho mayor que la del tubo de vacío.
En 1962, el mundo estuvo al borde de la guerra nuclear entre la Unión Soviética y los Estados Unidos, en lo que se denominó la "Crisis cubana". Por ello, una de las preocupaciones de los militares estadounidenses era encontrar la manera de hacer más seguras las comunicaciones ante un posible ataque militar con armas nucleares. Como solución se consideró únicamente el tratamiento de datos en formato electrónico. Los mismos datos deben estar organizados en diferentes computadoras, lejos unas de otras. Todas las computadoras interconectadas deben poder enviarse entre sí el estado actual de los datos nuevos o modificados en un corto período de tiempo, y cada una debe poder comunicarse entre sí de varias maneras. Esta red también debe funcionar si una sola computadora o una línea dada es destruida por un ataque hostil.
Joseph Carl Robnett Licklider escribió un ensayo sobre el concepto de la Web Intergaláctica, donde todos estaban conectados para acceder a programas y datos desde cualquier parte del planeta. En octubre de ese año, Lickider se convirtió en el primer director de ARPA (Advanced Research Projects Agency), una organización científica creada en 1958 en respuesta a la puesta en órbita de los rusos del primer satélite conocido, el Sputnik. .
En 1963, un comité del gobierno y la industria desarrolló el código de caracteres ASCII (pronunciado ash), el primer código estándar estadounidense para el intercambio de información, que permitía el intercambio de datos entre máquinas de todos los tipos y marcas.
En 1964, la aparición de IBM 360 marca el comienzo de la tercera generación. Las placas de circuito impreso multicomponente están siendo reemplazadas por circuitos integrados. Estos elementos son obleas de silicio llamadas chips, en cuya superficie se depositan impurezas con medios especiales que actúan como diversos componentes electrónicos. Esto representa un progreso significativo en términos de velocidad y, lo más importante, reducción de tamaño. 64.000 bits de información caben en un chip de silicio de no más de un centímetro cuadrado. En los núcleos de ferrita, esta capacidad de memoria puede requerir un volumen cercano a un litro.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 7
Científicos del Instituto Tecnológico de Massachusetts (MIT), la Corporación Rand y el Laboratorio Nacional de Física de Gran Bretaña presentaron simultáneamente soluciones a lo propuesto por las fuerzas armadas de Estados Unidos. Y ese mismo año, la Fuerza Aérea firmó un contrato con la Corporación RAND para la llamada "red descentralizada". Este proyecto fracasó después de muchos intentos y nunca llegó a implementarse, pero la idea de una red que no dependiera de un único punto central y con transferencia de datos por paquetes, quedó firmemente asentada en la mente de muchas personas.
Paul Baran, entonces en Rand Corporation, fue uno de los primeros en publicar sus resultados en Data Communications Networks casi simultáneamente con la publicación de la tesis de Kleinrock sobre la teoría de colas. Diseñó una red de comunicaciones que usaba computadoras y no tenía un gobierno central o central. Además, supuso que todos los nodos que conectaban las redes eran muy poco fiables.
El sistema de Baran era algo así como una oficina de correos diseñada por un loco que trabajaba en un proyecto que dividía los mensajes en pedazos pequeños y los colocaba en sobres electrónicos, llamados "paquetes", cada uno con una dirección del remitente y del destinatario. Los paquetes se colocaron en una red de computadoras interconectadas, donde rebotaron de una a otra hasta que llegaron a su destino, donde se volvieron a ensamblar para componer el mensaje general. Si alguno de los paquetes se perdió o fue manipulado (y algunos se habrían extraviado), no hay problema, se reenviaron.
En 1966, la organización científica ARPA decidió conectar sus propios ordenadores a la red propuesta por Baran, volviendo a la idea de red descentralizada. A fines de 1969, las primeras cuatro computadoras ya estaban conectadas a la red ARPA, y tres años después eran 40. En ese momento, sin embargo, era la propia red ARPA. En los años siguientes la red pasó a denominarse ARPANET (red ARPA) y su uso fue puramente militar.
Un grupo de investigadores de Bell Laboratories (ahora AT&T) desarrolló un sistema operativo experimental llamado Multics (Multiplexed Information and Computing System) para usar con una computadora General Electric. Bell Labs abandonó el proyecto, pero dentro
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 8
En 1969, Ken Thompson, uno de los investigadores de Multics, diseñó un juego para esta computadora que simulaba el sistema solar y una nave espacial. Con la ayuda de Dennis Ritchie, Thompson lo reescribió, esta vez para una computadora DEC (Digital Equipment Corporation), aprovechando que él y Ritchie también habían creado un sistema operativo multitarea con un sistema de archivos, un intérprete de comandos y algo de DEC. utilidades - la computadora. Se llamaba UNICS (Uniplex Information and Computing System) y podía soportar dos usuarios simultáneamente. En 1970 pasó a llamarse Unix. Era un sistema operativo bueno y seguro, pero su licencia era muy costosa, por lo que estaba fuera del alcance de muchas personas. Esto impulsaría más tarde la creación del proyecto GNU para el desarrollo de software libre.
En 1969, ARPA, junto con Rand Corporation, desarrolló una red de conmutación de paquetes sin hub, propuesta por Paul Baran. La información se dividió en paquetes y cada paquete contenía la dirección de origen, la dirección de destino, el número de secuencia y alguna información. Cuando los paquetes llegaron a su destino, se clasificaron en secuencia y se agruparon para derivar la información. Cuando los paquetes viajaban por la red, era más difícil perder datos, porque si un paquete determinado no llegaba a su destino o estaba defectuoso, la computadora receptora solo tendría la información que necesitaba para solicitar el paquete faltante a la computadora emisora. El protocolo de comunicación se denominó NCP. Esta red también incluía un alto nivel de redundancia (redundancia) para hacerla más confiable.
Computadoras de gran formato conectadas a ARPANET a través de pequeñas computadoras de puerta de enlace o "enrutadores" conocidas como procesadores de mensajes de interfaz (IMP). El 1 de septiembre de 1969 llegó el primer IMP a UCLA. Un mes después, el segundo se instaló en Stanford. Luego UC Santa Barbara y luego la Universidad de Utah.
En 1971 se creó el primer programa de correo electrónico. Era Ray Tomlinson de BBN y combinó un programa de correo electrónico interno con un programa de transferencia de archivos. También este año, un grupo de investigadores del MIT presentó la propuesta del primer "protocolo de transferencia de archivos de Internet". Era un protocolo muy simple basado en el sistema de correo electrónico, pero sentó las bases para el futuro Protocolo de transferencia de archivos (FTP).
Las instituciones académicas estaban interesadas en estas oportunidades de membresía. La NSF proporcionó acceso a sus seis centros de supercomputación a otras universidades a través de ARPANET. Desde aquí se conectaban otras redes, evitando la existencia de hubs para mantener la flexibilidad y escalabilidad.
1973 ARPA cambia su nombre a DARPA, comienza un programa para investigar técnicas y tecnologías para conectar diferentes tipos de redes y se lanzan dos nuevas redes: ALOHAnet, que conecta siete computadoras en cuatro islas, y SATNET, una red conectada por satélite que conecta dos naciones. : Noruega e Inglaterra.
Bob Kahn y Larry Roberts planean conectar DARPA a otras redes, PRNET y SATNET, con diferentes interfaces, tamaños de paquetes, etiquetas, convenciones y tasas de transmisión. Y en 1974, Vint Cerf, el primer presidente de Internet Society, y conocido por muchos como el padre de Internet, junto con Bob Kahn publicaron el "Protocolo de Intercomunicación de Red de Paquetes", en el que detallaron el diseño de un joven
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 9
el Protocolo de control de transmisión (TCP), que se ha convertido en el estándar aceptado. La implementación de TCP permitió que las distintas redes se conectaran en una red real de redes en todo el mundo.
El sistema Ethernet está diseñado para conectarse a través de un solo cable a computadoras en una red de área local (LAN).
1975, enero La revista Popular Electronics lanzó Altair 8800, la primera computadora personal reconocible. Tenía un procesador Intel de 8 bits y 256 bytes de RAM. El código de máquina se ingresaba a través de interruptores montados en la parte frontal del equipo y se usaban LED para leer la salida de datos en forma binaria. Cuesta $400, y la pantalla y
El teclado tuvo que comprarse por separado. Se funda Microsoft. 1976, se funda Apple.
En 1977 se populariza el ordenador Apple desarrollado por Steve Jobs y Steve Wozniak en un garaje, y al año siguiente se ofrece la primera versión del procesador de textos WordStar.
1979, Dan Bricklin crea la primera hoja de cálculo, más tarde llamada VisiCalc, que generó Multiplan de Microsoft, Lotus 1-2-3 (en 1982), Quattro Pro y Excel.
ARPA creó el primer Comité de Control de Configuración de Internet y en 1981 finalmente se definió el Protocolo de Control de Transferencia / Protocolo de Internet (TCP/IP) y ARPANET lo adoptó como estándar en 1982, reemplazando a NCP. Estas son las primeras referencias a Internet, como "una serie de redes interconectadas, en concreto las que utilizan el protocolo TCP/IP". Internet es la abreviatura de redes interconectadas, es decir, redes interconectadas o redes de redes.
En octubre de 1980, IBM comenzó a buscar un sistema operativo para la nueva computadora personal (PC) que lanzaría al mercado, que Bill Gates y su amigo Paul Allen, autores del lenguaje
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 10
Programación Microsoft Basic, basada en el lenguaje Basic existente. Compraron los derechos de QDOS (Quick and Dirty Operating System), un sistema operativo desarrollado por Tim Paterson basado en CP/M, un sistema escrito por Gary Kildall, y lo cambiaron a IBM como Microsoft DOS.
En 1981, IBM presenta la primera computadora personal ampliamente reconocida con un sistema operativo DOS y un procesador Intel 8088. Es bueno recordar que IBM y Microsoft escribieron el sistema operativo PC-DOS/MS-DOS, ya que IBM ayudó a Microsoft a resolver los muchos errores que originalmente tenía MS DOS.
En 1983, IBM presenta la computadora XT con un procesador 8088 de 4,77 Mhz y un disco duro de 10 Mb, Microsoft ofrece la versión 1.0 del procesador de textos Word para DOS, y ARPANET diverge de la red militar que originó. esta fecha puede considerarse el nacimiento de internet. Aquí es cuando el primer centro militar se desconecta, dando paso a todas las empresas, universidades y otras instituciones que ya poblaban la red en ese momento.
Richard Stallman, que en ese momento trabajaba en el Instituto Tecnológico de Massachusetts (MIT), decidió dedicarse al proyecto de software libre que denominó GNU.
En 1984, IBM presentó el PC AT, un sistema con un procesador Intel 286, un bus de expansión de 16 bits y una velocidad de 6 MHz. Tenía 512 KB de RAM, un disco duro de 20 Mb y una pantalla monocromática. Precio en ese momento: $ 5,795.
En 1985, Microsoft introdujo el sistema operativo Windows, demostrando que las computadoras compatibles con IBM también podían manejar el entorno gráfico común a las computadoras Mac de Apple.
1986 Compaq lanza la primera computadora basada en el procesador Intel 80386 por delante de IBM.
En 1990, Tim Berners-Lee inventó el hipertexto para crear la World Wide Web (www), una nueva forma de interactuar con Internet. Su sistema hizo que fuera mucho más fácil compartir y encontrar datos en Internet. Berners-Lee también sentó las bases para el protocolo de transmisión HTTP, el lenguaje de documentos HTML y el concepto de URL.
En 1991, Linus Torvalds, estudiante de informática de la Universidad de Helsinki (Finlandia), al ver que la funcionalidad de Minix no se podía ampliar, decidió escribir su propio sistema operativo compatible con Unix y llamarlo Linux (similar a de El nombre personal es sólo una coincidencia).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 11
Miles de personas que querían ejecutar Unix en sus computadoras vieron a Linux como su única alternativa porque a Minix le faltaba mucho. El proyecto GNU, que Stallman había iniciado casi diez años antes, ya había creado un sistema casi completo, excepto por el kernel, que es el programa que controla el hardware en la máquina, que Torvalds desarrolló y agregó a GNU para formar Linux. . .
A mediados de la década de 1990, Linux ya se había convertido en el Unix más popular entre las personas que buscaban alternativas al sistema Windows de Microsoft.
En 1992, la arquitectura Alpha diseñada por DEC se presenta con el nombre AXP, reemplazando la serie VAX que normalmente usaba el sistema operativo VMS, que luego conduciría a openVMS. Tiene un conjunto de instrucciones RISC de 64 bits específicamente orientado a la computación de punto flotante. No se ha vuelto muy popular, pero su tecnología es reconocida en el entorno corporativo.
En 1993, un grupo de investigadores descubrió que una característica de la mecánica cuántica llamada entrelazamiento podría usarse para superar las limitaciones de la teoría cuántica utilizada para construir computadoras cuánticas y teletransportación.
1995, lanzamiento de Windows 95. Desde entonces, Microsoft ha lanzado muchas versiones como Windows 98, 2000 (Server y Professional), NT Workstation, NT SMB (Small Business Server), ME, XP (Professional and Home Edition) y la nueva vista
En 1996, se creó Internet2, más rápido que el Internet original, que permite el manejo de archivos y aplicaciones muy grandes en videoconferencia, telemedicina y muchas otras cosas poco prácticas a través de Internet 1. Fue el resultado de la asociación de 34 universidades importantes en los Estados Unidos
En el año 2000, el prototipo de una computadora cuántica construida por el equipo de investigación de IBM, formado por 5 personas, programado con pulsos de radiofrecuencia y cuyo estado se podía leer mediante instrumentos de resonancia magnética, similares a los que se utilizan en hospitales y laboratorios químicos. En este ordenador, cada uno de los átomos de flúor que lo componen actúa como un qubit. un qubit es similar a un bit en un ordenador tradicional, pero con las diferencias que implica su naturaleza cuántica explícita (superposición de estados, entrelazamiento de estados de dos qubits...).
A partir de 2005, los usuarios de Internet de banda ancha superaron en número a los usuarios de módem en la mayoría de los países desarrollados.
2007, las computadoras personales, portátiles y de escritorio, se están desarrollando rápidamente, los nuevos desarrollos en microprocesadores, memorias y más, hacen que los equipos se actualicen cada uno o dos años para no quedarse fuera de la tecnología y perder compatibilidad con los programas actuales.
Actualmente con el lanzamiento de Windows Vista, el usuario debe contar con una computadora de última generación para poder instalarlo.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 12
¿Qué es PC?
PC significa Computadora personal, que se traduce como Computadora personal. Existen otros llamados ordenadores de sobremesa, que son equipos que se utilizan en el hogar o la oficina y no son portátiles, aunque esta categoría también puede considerarse un ordenador personal.
¿Cómo funciona mi computadora?
A medida que el usuario se vuelve más seguro con su computadora, surgen muchas preocupaciones con respecto al significado de los acrónimos y términos utilizados en la jerga informática. Muchas veces no saben lo que son o lo que representan. A continuación, intentaremos aclarar algunas de estas cuestiones.
¿Qué es software y qué es hardware?
Se denomina software a todos los elementos intangibles de una computadora o computadora, es decir, al conjunto de programas y procesos necesarios para permitir la ejecución de una tarea específica, en contraposición a los elementos físicos del sistema (hardware). Esto incluye aplicaciones informáticas, como un editor de texto, que permiten al usuario realizar una tarea, y software de sistema, como un sistema operativo, que permite que otros programas funcionen correctamente al facilitar la interacción con componentes físicos y otras aplicaciones.
Probablemente la definición más formal de software es la atribuida al Instituto de Ingenieros Eléctricos y Electrónicos, la suma de los programas de computadora, procedimientos, reglas, documentación y datos relacionados que componen las operaciones de un sistema de computadora. En esta definición, el término software va más allá de los programas de ordenador en sus diversas formas: código fuente, binario o ejecutable, así como su documentación: es decir, todo aquello que es intangible.
El término "software" fue utilizado por primera vez en este sentido por John W. Tukey en 1957. En informática e ingeniería de software, el software es toda la información procesada por los sistemas informáticos: programas y datos. El concepto de leer diferentes secuencias de instrucciones de la memoria de un dispositivo para controlar los cálculos fue inventado por Charles Babbage como parte de su máquina diferencial. La teoría que subyace a la mayoría del software moderno fue propuesta por primera vez por Alan Turing en su ensayo de 1936, The Computable Numbers, con una aplicación al problema de decisión.
El conjunto de elementos materiales que componen una computadora se denomina hardware o soporte físico. El hardware también son los componentes físicos de una computadora, como el disco duro, el CD-ROM, la unidad de disquete, etc.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 13
Este kit incluye dispositivos electrónicos y electromecánicos, circuitos, cables, tarjetas, periféricos de todo tipo y otros elementos físicos.
El hardware se refiere a todos los elementos físicos (tangibles) de la computadora: discos, unidades, monitor, teclado, mouse (ratón), impresora, tarjetas, chips y otros dispositivos externos. Por el contrario, el software es intangible, existe como ideas, conceptos, símbolos, pero no tiene sustancia. Una buena metáfora sería un libro: las páginas y la tinta son el hardware, mientras que las palabras, oraciones, párrafos y significados del texto son el software. Una computadora sin software sería tan inútil como un libro con páginas en blanco.
lenguaje de ordenador
Sistema Binario: Historia
El antiguo matemático indio Pingala ideó la primera descripción conocida de un sistema numérico binario en el siglo III a. C., coincidiendo con su descubrimiento del concepto del número cero.
El sistema binario moderno fue completamente documentado por Leibniz en el siglo XVII en su artículo "Explication de l'Arithmétique Binaire". Leibniz usó 0 y 1, al igual que el sistema numérico binario actual.
En 1854, el matemático británico George Boole publicó un artículo de antes y después que describía un sistema de lógica que eventualmente se llamaría Álgebra de Boole. Tal sistema jugará un papel clave en el desarrollo del sistema binario actual, especialmente en el desarrollo de circuitos electrónicos.
En 1937, Claude Shannon completó su doctorado en el MIT, aplicando álgebra booleana y aritmética binaria utilizando relés e interruptores por primera vez en la historia. Titulado Un análisis simbólico de circuitos de conmutación y relés, la tesis de Shannon sustenta esencialmente el diseño práctico de circuitos digitales.
En noviembre de 1937, George Stibitz, que entonces trabajaba en Bell Labs, construyó una computadora basada en relés, a la que llamó "Modelo K" (porque la construyó en una cocina), que usaba sumas binarias para realizar cálculos. Bell Labs aprobó un programa de investigación completo a finales de 1938 con Stibitz a la cabeza. El 8 de enero de 1940, completaron el diseño de una calculadora de números complejos capaz de realizar cálculos con números complejos. En una demostración en la conferencia de la American Mathematical Society el 11 de septiembre de 1940, Stibitz pudo transmitir comandos de forma remota a la calculadora de números complejos a través de la línea telefónica utilizando un teletipo. Fue la primera máquina informática que se utilizó de forma remota a través de una línea telefónica. Algunos de los participantes de la conferencia que asistieron a la manifestación incluyeron a John Von Neumann, John Mauchly y Norbert Wiener, quienes escribieron sobre este evento en sus diversos géneros de memorias, en las que alcanzó diversos grados.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 14
archivo binario
Un archivo binario es un archivo de computadora que contiene información de cualquier tipo codificada en forma binaria para su almacenamiento y procesamiento en las computadoras. Por ejemplo, archivos de computadora que almacenan texto o fotos formateadas.
Muchos formatos binarios contienen segmentos que pueden interpretarse como texto. Un archivo binario que contiene solo información de tipo de texto sin información sobre el formato del archivo se considera un archivo de texto sin formato. Por lo general, los términos "archivo binario" y "archivo de texto" son opuestos, por lo que el primero no contiene solo texto.
Los archivos binarios generalmente se consideran una secuencia de bytes, lo que significa que los bits se agrupan de ocho en ocho. Los archivos binarios contienen bytes que generalmente se interpretan como caracteres de texto diferentes. Un ejemplo típico son los programas informáticos compilados. De hecho, las aplicaciones o programas compilados se conocen como binarios, especialmente entre los desarrolladores. Pero un archivo binario puede almacenar imágenes, sonido, versión comprimida de otros archivos, etc. En definitiva, todo tipo de información.
Algunos binarios tienen un encabezado. Esta cabecera es un bloque de metadatos que utilizará un programa informático para interpretar correctamente la información que contiene. Por ejemplo, un archivo GIF puede constar de muchas imágenes y el encabezado se usa para identificar y describir cada bloque de datos para cada imagen. Si el binario no tiene encabezado, se supone que es un binario plano.
Pequeña, la cosa más pequeña en el idioma
Bit es una abreviatura de dígito binario. (Poco). Un bit es un dígito en el sistema de numeración binaria. La Real Academia Española (RAE) aceptó la palabra poco a poco en plural.
Mientras que nuestro sistema numérico decimal usa diez dígitos, el binario usa solo dos dígitos, 0 y 1. Un bit o dígito binario puede representar uno de estos dos valores, 0 o 1.
Podemos pensarlo un poco como una bombilla que puede estar en uno de dos estados:
deshabilitado o habilitado
Un bit es la unidad de información más pequeña utilizada en las computadoras, cualquier dispositivo digital o en la teoría de la información. Con esto podemos representar dos valores como verdadero o falso, abierto o cerrado, negro o blanco, norte o sur, masculino o femenino, amarillo o azul, etc. Simplemente asigne uno de estos valores al estado "apagado" (0) y el otro al estado "encendido" (1).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 15
Origen del término bit
Claude E. Shannon utilizó por primera vez la palabra bit en un artículo académico de 1948. Atribuyó su origen a John W. Tukey, quien había escrito una nota en Bell Labs el 9 de enero de 1947, en la que acuñó las palabras "dígito binario" ( binario). dígito) en "bits" simples que forman una palabra combinada. Curiosamente, Vannevar Bush había escrito en 1936 sobre los "bits de información" que podían almacenarse en las tarjetas perforadas que se usaban en las computadoras mecánicas de la época.
combinación de piezas
Con un bit podemos representar solo dos valores. Para representar o codificar más información en un dispositivo digital, necesitamos una mayor cantidad de bits. Si usamos dos bits, tenemos cuatro combinaciones posibles:
• 0 0 - ambos están "apagados" • 0 1 - el primero (de derecha a izquierda) está "encendido" y el segundo está "apagado" • 1 0 - el primero (de derecha a izquierda) está "apagado" y el segundo " encendido" • 1 1 - ambos están "encendidos"
Hay 4 combinaciones posibles con dos bits
Bit 1 Bit 0
0 0
0 1
10
1 1
Con estas cuatro combinaciones podemos representar hasta cuatro valores diferentes, como los colores rojo, verde, azul y negro.
A través de flujos de bits, se puede codificar cualquier valor discreto, como números, palabras e imágenes. Cuatro bits forman un pin y pueden representar hasta 24 = 16 valores diferentes. ocho bits forman un octeto y pueden representar hasta 28 = 256 valores diferentes. En general, con n número de bits se pueden representar hasta 2n valores diferentes.
Un byte y un octeto no son lo mismo. Mientras que un octeto siempre tiene 8 bits, un byte contiene una cantidad fija de bits, no necesariamente 8. En las computadoras más antiguas, un byte puede constar de 6, 7, 8 o 9 bits. Hoy en día, en la gran mayoría de las computadoras y en la mayoría de las regiones, un byte tiene 8 bits, lo que corresponde a un octeto, pero hay excepciones.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 16
octeto o byte
Voz inglesa, pronunciada báit, que si bien la Real Academia Española ha aceptado como equivalente a un octeto, es decir, ocho bits, a los efectos propios un byte debe considerarse una secuencia de bits contiguos cuyo tamaño depende del código de información o del carácter. código en el que se define. Suele utilizarse como unidad básica de almacenamiento de información junto con prefijos de cantidad.
Los prefijos kilo, mega, giga, etc. se consideran múltiplos de 1024 en lugar de múltiplos de 1000. Esto se debe a que 1024 es la potencia de 2 (210) más cercana a 1000. Se usa la potencia de dos porque la computadora trabaja en binario.
Para SI, sin embargo, los prefijos conservan su significado habitual para potencias de mil.
Después:
Nombre Apr. Coeficiente Tamaño en SI Kilo K 1024 1000
Mega M 1,048,576 1,000,000 Giga G 1,073,741,824 1,000,000,000 Tera T 1,099,511,627,776 1,000,000,000,000 Lanzamiento. a E 1.152.921.504.606.846.976 1.000 .000.000. 000,000,000
Codificación binaria:
Código Estándar Estadounidense para el Intercambio de Información
ASCII (un acrónimo de American Standard Code for Information Interchange), comúnmente pronunciado [áski], es un código de caracteres basado en el alfabeto latino que se usa en el inglés moderno y otros idiomas occidentales. Fue creado en 1963 por el Comité Estadounidense de Estándares (ASA, conocido desde 1969 como el Instituto Nacional Estadounidense de Estándares o ANSI) como una reformulación o desarrollo de los conjuntos de códigos que se usaban entonces en telegrafía. Más tarde, en 1967, se agregaron letras minúsculas y se redefinieron algunos códigos de control para formar el código conocido como US-ASCII.
El código ASCII usa 7 bits para representar caracteres, aunque originalmente usaba un bit extra (paridad de bits) para detectar errores de transmisión. Otros códigos de caracteres de 8 bits a menudo se denominan incorrectamente como ASCII, como el estándar ISO-8859-1, que es una extensión que usa 8 bits para proporcionar caracteres adicionales que se usan en idiomas distintos al inglés, como el español.
ASCII se publicó por primera vez como estándar en 1967 y se actualizó por última vez en 1986. Actualmente define códigos para 33 caracteres no imprimibles, la mayoría de los cuales son caracteres de control obsoletos que, entre otras cosas, afectan la forma en que se procesa el texto. 95 caracteres imprimibles que les siguen en la numeración (empezando por el carácter de espacio).
Casi todos los sistemas informáticos actuales utilizan código ASCII o una extensión compatible para representar texto y controlar dispositivos de manipulación de texto.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 17
Caracteres de control ASCII
El código ASCII reserva los primeros 32 códigos (numerados del 0 al 31 en decimal) para caracteres de control: códigos originalmente destinados no a representar información imprimible, sino a dispositivos de control (como impresoras) que usaban ASCII. Por ejemplo, el carácter 10 representa la función de "salto de línea", que hace que la impresora avance el papel, y el carácter 27 representa la tecla "Escape", que a menudo se encuentra en la esquina superior izquierda de los teclados.
El código 127 (los siete bits a uno), otro carácter especial, corresponde a "eliminar". Aunque esta función es similar a otros caracteres de control, los diseñadores ASCII crearon este código para poder "borrar" una sección de papel perforado (un medio de almacenamiento popular hasta la década de 1980) perforando tantos agujeros como sea posible en una sola pieza de papel. , que reemplaza toda la información anterior. Como se ignoraba el código 0, era posible dejar huecos (áreas vacías) y hacer correcciones más tarde.
Muchos de los caracteres de control ASCII se usaron para etiquetar paquetes de datos o para controlar protocolos de transmisión de datos (p. ej., concepto de sonda: ¿hay una estación cerca?, ACKnowledge: recibido o "acknowledge", Negative AcKnowledge: no recibido, Start Of Header: inicio de encabezado, Start TeXt: inicio de texto, End TeXt: final de texto, etc.). ESCape y SUBstitute permitieron que un protocolo de comunicaciones, por ejemplo, marcara datos binarios para contener códigos con el mismo código de carácter que el protocolo, de modo que el receptor pudiera interpretarlos como datos en lugar de caracteres de protocolo.
Los diseñadores del código ASCII crearon los caracteres separadores para su uso en sistemas de cintas magnéticas.
Dos de los caracteres de control de dispositivos, comúnmente llamados XON y XOFF, normalmente realizan funciones de caracteres de control de flujo para controlar el flujo a un dispositivo lento (como una impresora) desde un dispositivo rápido (como un microprocesador) para que los datos no puedan sature la capacidad de descarga lenta del dispositivo y piérdase.
Los primeros usuarios de ASCII adoptaron algunos de los códigos de control para representar "metainformación", como el final de la línea, el inicio/final de un elemento de datos, etc. Estas asignaciones a menudo entran en conflicto, por lo que parte de tratar de convertir datos de un formato a otro implica realizar las conversiones de metadatos correctas. Por ejemplo, los caracteres de fin de línea en los archivos de texto difieren según el sistema operativo. Cuando se copian archivos de un sistema a otro, el sistema de conversión debe reconocer estos caracteres como marcas de fin de línea y actuar en consecuencia.
Actualmente, los usuarios de ASCII usan menos caracteres de control. Los lenguajes de etiquetas modernos, los protocolos de comunicación modernos, la transición de dispositivos basados en texto a dispositivos basados en gráficos, el declive de las teleimpresoras, las tarjetas perforadas y el papel continuo han dejado obsoletos a la mayoría de los caracteres de control.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 18
ASCII-tegntabel
Como vimos anteriormente, la matriz se usa para funciones de codificación interna, pero el usuario también puede usar esta matriz para ingresar un código ASCII (letra, símbolo o número) en un editor de texto o DOS, p. la letra Ñ, suele tener problemas si el teclado está mal configurado, usando el código ASCII, al pulsar la tecla ALT + el código del carácter automáticamente nos da el código en pantalla.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 19
fuente para computadora
Fuente de alimentación de la computadora:
La fuente de alimentación tiene componentes electrónicos que pueden convertir la energía de la red en energía que la computadora puede manejar.
Esto se hace a través de procesos electrónicos, que explicaremos en breve.
1. Transformación.
En este paso es posible reducir el voltaje de entrada en la fuente (220v o 125v con un transformador), que son los que nos abastecen de la red eléctrica, recuerda que la electricidad que llega a nuestra casa es de tipo alterna y electrónica. Los componentes funcionan con corriente continua.
Esta parte del proceso de transformación se realiza, como su nombre indica, con un transformador de bobina. La salida de este proceso producirá de 5 a 12 voltios.
2. Corrección.
La corriente que nos ofrece la compañía eléctrica es alterna, esto quiere decir que pasa por variaciones en su temporización, los cambios se dan en forma de ciclos de corriente positiva y negativa, estos cambios se dan 50 veces por segundo. Lógicamente esto no se podría utilizar para alimentar los componentes de un ordenador como imaginamos si alimentamos un disco duro con 12 voltios CA lógicamente no actuaría como variable, no daríamos 12 voltios constantes. Lo que trata de hacer esta fase es cambiar de corriente alterna a corriente continua a través de un componente llamado rectificador o puente de Graetz. Esto asegura que el voltaje nunca caiga por debajo de 0 voltios y siempre se mantenga por encima de ese valor.
3. Filtrado.
Ahora tenemos corriente continua, que era lo que nos interesaba, pero sigue sin ayudar porque no es constante y no serviría para alimentar ningún circuito.
En esta fase de filtrado lo que se hace es suavizar la señal lo más posible para que no haya oscilaciones, esto se logra mediante uno o más capacitores que retienen la corriente y la dejan pasar lentamente para suavizar la señal logrando así el resultado deseado. .
Nueva York EATX 24 pines
fuente principal
Fuente secundaria y salida de cable.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 20
4. Estabilización
Ya tenemos una señal de CC bastante decente, casi completamente plana, ahora solo necesitamos estabilizarla por completo para que cuando la señal de entrada a la fuente suba o baje, no afecte su salida.
Esto se logra con un regulador.
fuentes
Tras comentar estas fases de la alimentación, comenzaremos a distinguir entre los dos tipos existentes.
Las dos fuentes que podemos encontrar cuando abrimos un ordenador pueden ser: AT o ATX
Las fuentes de alimentación AT se utilizaron hasta que salió el Pentium MMX, luego se empezaron a utilizar las fuentes de alimentación ATX.
Las características de las fuentes de alimentación AT es que sus conectores de placa base son diferentes a los que se utilizan en las fuentes de alimentación ATX, y por otro lado, quizás mucho más peligroso, es que la fuente de alimentación se activa a través de un interruptor, y en este interruptor hay un voltaje de 220v, con el riesgo de hackear la PC.
También tenga en cuenta que tecnológicamente, en comparación con las fuentes de alimentación ATX, las fuentes de alimentación AT son electrónicamente bastante rudimentarias.
En ATX es un poco diferente, ya que el circuito de la fuente de alimentación está modernizado y siempre activo, incluso si la computadora no está funcionando, la fuente de alimentación siempre se alimenta con un voltaje pequeño para mantenerla en espera.
Una de las ventajas es que las fuentes de alimentación ATX no tienen un interruptor de encendido/apagado, sino un botón adjunto a la placa base y que es responsable de encender la fuente de alimentación, es decir, la capacidad de conectar/software si se pierde la conexión.
Hay una tabla para clasificar las fuentes según su fuerza y materia.
Plana AT => 150-200W MiniTower => 200-300W Torre => 230-250W Slank => 75-100W Plana ATX => 200-250W
Actualmente, los gabinetes utilizan suministros desde 400 W, dado el consumo de hardware moderno.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 21
Sin embargo, tenga en cuenta que este dato es muy variable y solo indicativo, ya que varía según la cantidad de dispositivos conectados a la computadora.
conectar el dispositivo
En AT Sources había un problema de que había que conectar dos enchufes a la placa base, lo que podía generar confusión y cortocircuitos, la solución a esto es confiar en un truco muy simple, hay que dejar los cables en el centro negro. que tienen ambos enlaces para que no te equivoques.
Tampoco olvidemos las ranuras estándar para disquetes de 3 ½, discos duros y lectores:
entrada de 220 voltios
tecla de función corta
selector de voltaje
Ventilador
Cables para conectar placas base y componentes
Interno.
P9
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 22
Los equipos modernos utilizan fuentes de alimentación con conectores adicionales para alimentar los nuevos refrigeradores y potentes microprocesadores como Intel P4 o AMD FX, el intercambio constante de microprocesadores dotó a los equipos de mayores velocidades y rendimiento, por lo tanto discos duros SATA, tarjetas de video PCI-Express y periféricos USB así como luces de neón y enfriadores adicionales que se pueden instalar en la unidad.
Un dato importante a considerar es la potencia de la fuente, es decir, la capacidad de suministrar corriente eléctrica (energía) a los componentes de la PC sin cortes de energía o sobrecalentamiento de los componentes debido a la falta de energía. . En principio las fuentes se hacían de 150 a 200 watts, y era más que suficiente para alimentar todo lo que había adentro, hoy en día dada la cantidad de hardware que incluye la computadora y el alto consumo de energía, es muy importante contar con una fuente de alimentación. que además de robusto y de calidad, tiene la capacidad de manejar todos los componentes de PC. Por lo tanto, el estándar no es inferior a 400-450 vatios.
ATX
NO
Etiqueta en la fuente indicando: Fabricante, conexión y potencia.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 23
código de color
Complementos de la placa base
PCI-E
MP de 12 voltios.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 24
Arquitectura fuente: cableado interno.
Código de colores y tendencias:
Nueva York EATX
Puente entre los cables verde y negro, para arranque en vacío.
Flujo de aire
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 25
MESA BASE
¿Qué es una placa base?
La placa base es el componente principal de la computadora. Si decimos que el procesador es el cerebro. La placa base es la columna vertebral donde se conectan todos los demás componentes de hardware, es el componente más crítico de una computadora. Todos los demás componentes dependen de él y, por lo tanto, del rendimiento general. En muchas ocasiones, los usuarios suelen pasar por alto este dispositivo a la hora de elegir accesorios.
Eso sí, se trata de una “oblea” fabricada en material sintético sobre la que hay un circuito electrónico que conecta varios elementos incrustados en ella. De esta forma, una placa base puede tener hasta siete capas entre "obleas y circuito impreso".
La placa base, mainboard o motherboard (en inglés motherboard, mainboard) sirve como medio de conexión entre: el microprocesador, los circuitos electrónicos de soporte, los zócalos para conectar parte o la totalidad de la RAM, la memoria ROM del sistema y las ranuras especiales que permiten la conexión de una tarjeta adaptadora adicional. Estas tarjetas de expansión suelen realizar funciones de control de periféricos como monitores, impresoras, unidades de disco, etc.
Básicamente está diseñado para realizar tareas específicas que son necesarias para que la computadora funcione, tales como:
• Conexión física. • Gestión, control y distribución de energía eléctrica. • Comunicación de datos. • Tiempo. • Sincronización. • Control y seguimiento.
Para que la placa base pueda cumplir con su cometido, tiene instalado un software muy básico llamado BIOS.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 26
arquitectura abierta:
La maternidad es mucho más importante de lo que parece. Hoy en día, con el concepto de arquitectura abierta, es posible fabricar o reemplazar los componentes de la computadora después de la compra o el ensamblaje, actualizando los equipos, de esta manera diferentes fabricantes pueden producir componentes para integrar a la computadora. Recordemos que los primeros ordenadores tenían sus componentes pegados a la placa base, lo que dificultaba su cambio. Por lo tanto, gracias a estos recursos, se pueden elegir los componentes de la computadora de acuerdo con el uso del equipo o el rendimiento requerido, actualizarlo o reemplazar un componente dañado.
USB interno
Un montón de enchufes de extensión para intercambiar
componentes
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 27
Componentes integrados (on board) Este concepto nació con la idea de abaratar el coste de los equipos, apareció en el mercado una generación de ordenadores con placas base que, además de sus componentes habituales, como veremos a continuación, también incluían vídeo. , audio, módem y redes. De esta forma, una placa base reduce el coste final, ya que te olvidas de comprar el resto de componentes habituales. Por el contrario, podemos decir que estos componentes son de calidad media, lo que limita el rendimiento de la computadora, además se reduce en espacio físico por la integración de enchufes incorporados y adicionales, por lo que los fabricantes han eliminado los conectores de expansión. , esto limita la idea de arquitectura modular o reemplazo de componentes.
Vista superior Vista lateral
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 28
Plan
La forma del tablero sigue una norma de construcción que se debe seguir para facilitar la colocación en el mueble y su soporte, referente a la forma rectangular y los orificios de soporte. Además de compatibilidad con componentes internos y externos, por ejemplo, ranuras de expansión PCI Express para nuevas tarjetas de video o ranuras USB para cámaras digitales o impresoras, entre otros. Este formato es necesario para la compatibilidad con todo el hardware del mercado, así como con algunos componentes que requieren un diseño diferente, empezando por el zócalo del microprocesador, por ejemplo, ya que cada modelo del mercado tiene su propio zócalo.
video
ABAJO COMO
serie de ratones
Puerto paralelo USB
Teclado
PS/2 gato
TV APAGADA
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 29
En la imagen a continuación, vemos un diagrama del plan de diseño, su proporción en tamaño y nombres:
Microprocesador (zócalo)
bolsa
Palo PCI
AGP Zócalo
conjunto de chips
RomBios
tarjeta de memoria
alineando
Palo ATX
Ranura IDE Ranura para disquete
memoria USB
frontal
chip controlador
Rojo
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 30
• XT (8,5 × 11" o 216 × 279 mm) • AT (12 × 11"–13" o 305 × 279–330 mm) • Baby-AT (8,5" × 10"–13" o 216 mm × 254- 330 mm) • ATX (Intel 1996; 12" × 9,6" o 305 mm × 244 mm) • EATX (12" × 13" o 305 mm × 330 mm) • Mini-ATX (11,2 " × 8,2" o 284 mm × 208 mm) • microATX (1996; 9,6" × 9,6" o 244 mm × 244 mm) • LPX (9" × 11"–13" o 229 mm × 279 –330 mm) • Mini-LPX (8"–9" × 10"–11" o 203–229 mm × 254–279 mm) • NLX (Intel 1999; 8"–9" × 10"-13,6" o 203–229 mm × 254–345 mm) • FlexATX (Intel 1999 ; 9,6" × 9,6" o 244 × 244 mm máx.) • Mini-ITX (VIA Technologies 2003; 6,7" × 6, 7" o 170 mm × 170 mm máx., 100 W máx.) • Nano-ITX (VIA Technologies 2004; 120 mm × 120 mm máx.) • BTX (Intel 2004; 12,8" × 10,5" o 32 mm × 267 mm máx.) • MicroBTX (Intel 2004; 10,4" × 10,5" o 264 mm × 267 mm máx. ) • PicoBTX ( Intel 2004; 8,0" × 10,5" o 203 mm × 267 mm máx.) • WTX (Intel 1998; 14" × 16,75" o 355,6 mm × 425,4 mm) • ETX y PC/104, usados en sistemas especiales .
Placa ATX:
El formato ATX (acrónimo de Advanced Technology Extended) fue introducido por Intel en 1995. Con unas medidas de 12 pulgadas de ancho y 9,6 pulgadas de profundidad, este nuevo formato resuelve todos los problemas que afectaban a la citada placa. Los puertos más comunes (impresora Centronics, RS-232 en formato DB-9, jacks para joystick/midi y tarjeta de sonido, puertos USB y RJ-45 (para red 100) y, en algunos casos, incluso salida de monitor VGA) se agrupan en lados opuestos. lados de los puertos de expansión. El puerto de teclado DIN 5 se reemplaza por conectores de teclado y mouse PS/2 (llamados así por la introducción de IBM en su línea de computadoras PS/2 y adoptados rápidamente por todos los principales fabricantes) y ubicados en el mismo bloque. Todo esto hace que muchas tarjetas necesarias estén integradas en la placa base, lo que reduce costes y mejora la ventilación.Justo detrás se encuentra el slot o ranura para el procesador y los soportes del ventilador (que, más cerca de la fuente de alimentación y su ventilador, funcionan de forma más eficiente). , justo al lado del nuevo conector de la fuente de alimentación (lo que elimina la quema accidental de la placa). Luego vienen las ranuras de RAM, y justo detrás de las ranuras para IDE, SCSI (principalmente en servidores y placas de gama alta) y controladores de disquete justo al lado a las bahías de unidad en el chasis (cables de reducción).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 31
La nueva fuente tiene, además del interruptor físico de alimentación, como en el AT, una función de apagado similar a la de los dispositivos de consumo que suministra a la tarjeta una pequeña corriente que le permite responder a eventos (como una señal de la red). o un control remoto) para despertar o, si el modo de suspensión heredado de la computadora portátil está habilitado, continúe donde lo dejó.
Cabe mencionar la versión reducida de este formato, las placas mini ATX.
MicroATX:
El factor de forma MicroATX (también conocido como μATX) es un factor de forma de placa base pequeña con un tamaño máximo de 9,6 x 9,6 pulgadas (244 mm x 244 mm) que se utiliza principalmente en cajas cúbicas y SFF. Debido a sus dimensiones, solo tiene espacio para 1 o 2 ranuras PCI y/o AGP, por lo que suele tener múltiples puertos FireWire y USB 2 (para permitir la conexión de discos duros externos y grabadoras de DVD).
placa LPX:
Basado en el diseño de Western Digital, permite que se usen cajas más pequeñas en una placa ATX colocando las ranuras de expansión en una tarjeta especial llamada placa de expansión (en sí misma una placa de expansión ubicada en el costado de la placa base). Este diseño coloca las tarjetas de expansión paralelas a la placa base en lugar de verticales. Por lo general, solo lo utilizan los principales fabricantes de automóviles, como IBM, Compaq, HP o Dell, principalmente en equipos SFF (formato pequeño) o cajas de factor de forma pequeño. Por lo tanto, no suelen tener más de 3 ranuras cada uno.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 32
Componentes de la placa base:
Como podemos ver en las diferentes imágenes, cada placa tiene un diseño especial, que es similar a las demás, pero nunca igual. Cada fabricante determina qué componentes utilizar para obtener la máxima compatibilidad y rendimiento con la tecnología actual. Este ratio se refleja directamente en el precio final de Prato.
Conjunto de chips:
El circuito integrado auxiliar o chipset es un conjunto de circuitos integrados que se encargan de realizar las funciones que les asigna el microprocesador. Chipset traducido literalmente del inglés significa ensamblaje de circuito integrado. Un circuito integrado auxiliar es un circuito integrado periférico a un sistema pero necesario para su funcionamiento. La mayoría de los sistemas necesitan más de un IC auxiliar. Sin embargo, el término conjunto de chips se usa a menudo hoy en día cuando se habla de placas base para PC de IBM.
En el pasado, estas funciones eran relativamente fáciles de realizar y el conjunto de chips tenía poco efecto en el rendimiento de la computadora, por lo que el conjunto de chips era lo último a considerar al comprar una placa base, si a uno le importaba. . Pero las computadoras nuevas y altamente complejas, junto con una gama muy amplia de tecnologías de memoria, caché y periféricos que aparecen y desaparecen casi mes a mes, han provocado un gran aumento en la importancia del chipset.
Así, el "chipset" es el conjunto de chips encargados de controlar ciertas funciones de la computadora, como la interacción del microprocesador con la memoria o caché, o la gestión de puertos y sockets ISA, PCI, AGP, USB. ...
En los procesadores convencionales, el chipset consta de 2 circuitos auxiliares para el procesador principal:
• El puente norte se utiliza como puente entre el procesador al que se hace referencia y la memoria. NorthBridge controla las funciones de acceso hacia y entre el microprocesador, la RAM, el puerto de gráficos AGP y la comunicación con SouthBridge.
• SouthBridge gestiona dispositivos conectados como controlador de disco IDE, puertos USB, Firewire, SATA, RAID, ranuras PCI, ranura AMR, ranura CNR, puertos IR, disqueteras, LAN y un largo etcétera de todo lo que podamos imaginar integrado en la placa base. El puente sur es el encargado de la comunicación del procesador con el resto de dispositivos externos.
Este término fue muy utilizado en las décadas de 1970 y 1990 para designar los circuitos integrados que se encargaban de las tareas gráficas en los ordenadores domésticos de la época: Commodore Amiga y Atari ST. Ambas computadoras tenían un procesador principal, pero muchas de las funciones de gráficos y audio estaban en coprocesadores separados que se ejecutaban junto con el procesador principal.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 33
Un libro en particular compara el Chipset con la médula espinal: una persona puede tener un buen cerebro, pero si la médula espinal falla, todo lo que está debajo es inútil.
El Northbridge ("puente norte" en inglés) es el chip más importante del chipset (Chipset), que es el corazón de la placa base. Obtuvo su nombre por estar colocado encima de las placas base con el factor de forma ATX y, por lo tanto, no es un término usado antes de la aparición de este factor de forma para las computadoras de escritorio.
El chip integrado es el conjunto de la placa base que controla las funciones de acceso hacia y desde el microprocesador, AGP, RAM y Southbridge. Su función principal es controlar el funcionamiento del bus del procesador, la memoria y el puerto AGP. De esta forma, actúa como conexión (de ahí el nombre de "puente") entre la placa base y los principales componentes del ordenador: microprocesador, memoria RAM y tarjeta gráfica AGP. Por lo general, en este chip se implementan importantes innovaciones tecnológicas, como el soporte de memoria DDR o nuevos FSB. En otras palabras, la compatibilidad de una placa base con ciertos tipos de microprocesadores, RAM o tarjetas AGP estará limitada por sus capacidades de Northbridge.
La tecnología de producción de un Northbridge es muy avanzada y su complejidad se puede comparar con un microprocesador moderno. Por ejemplo, el puente norte de un conjunto de chips debe ser compatible con el bus de avance de alta velocidad que lo conecta al procesador. Si pensamos en el bus de 400 MHZ, que p. utilizado en el último Athlon XP y el bus de 800 MHZ utilizado por Intel Prescott, nos damos cuenta de que esta es una tarea muy exigente. Debido a esto, la mayoría de los fabricantes de placas base colocan un disipador de calor en la parte superior del Northbridge para mantenerlo fresco.
Anteriormente, Northbridge constaba de tres controladores principales: RAM, puerto AGP y bus PCI. Hoy en día, el controlador PCI se inserta directamente en Southbridge y, en algunas arquitecturas más nuevas, el controlador de memoria está integrado en el procesador. este es el caso del Athlon 64.
Los Northbridge tienen un bus de datos de 64 bits en arquitectura X86 y operan en frecuencias desde 66Mhz en las primeras tarjetas que lo incorporaron en 1998 hasta 1Ghz en los actuales modelos de procesadores SiS [AMD64].
Un Southbridge es un chip (normalmente formado por un conjunto de circuitos integrados) que forma parte del chipset y de la placa base.
Su función principal es comunicar todos los dispositivos de E/S de una computadora, como disco duro, teclado, puerto USB, Firewire, LAN o todos los dispositivos conectados al bus PCI.
El Southbridge es la segunda parte del chipset (Northbridge – Southbridge) y se comunica con el microprocesador a través del NorthBridge. Este último realiza tareas de interfaz con el bus AGP, RAM y el mencionado SouthBrigde.
En los últimos modelos de placas, Southbridge acapara cada vez más dispositivos de conexión y comunicación, por lo que fabricantes como AMD o VIA han desarrollado
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 34
tecnologías como HyperTransport o V-Link respectivamente para evitar la congestión al transferir datos entre dispositivos.
A continuación veremos algunos ejemplos de diagramas de Chipset:
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 35
Zonas de expansión (ranuras):
Una ranura dentro de una PC o computadora diseñada para albergar tarjetas de expansión y conectarlas al bus del sistema (bus de datos). La mayoría de los equipos informáticos personales tienen entre 3 y 8 ranuras de expansión. Las ranuras brindan la capacidad de agregar funciones nuevas o mejoradas al sistema, así como a la memoria.
Castillo, en español. Son cada una de las cajas de la placa base donde van las tarjetas de expansión. Todos estos conectores están conectados entre sí, y una computadora personal suele tener ocho, aunque puede tener hasta doce.
1) Es Simple. 2) Isa Doble. 3) VESA. 4) PCI. 5) AGP. 6) CNR o AMR. 7) PCI-E
Chipset Simples: Un Solo C.I.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 36
El bus de expansión ISA:
Este bus se identifica en una placa base porque varias ranuras negras están soldadas a sus líneas, donde se pueden insertar tarjetas de interfaz periféricas. La función del bus ISA es permitir la comunicación entre la parte central ubicada en la placa base y los registros de puerto de las interfaces mencionadas.
Las conexiones adjuntas al bus permiten expandir la cantidad de periféricos en una computadora, lo que también da como resultado que IBM acuñe el nombre Expansion Bus para las primeras computadoras, de donde proviene su nombre "I / The Channel". . Aunque IBM nunca publicó los estándares mecánicos y eléctricos que debían obedecer las conexiones y el tipo de señal que debía transmitir cada línea del bus, se convirtió en un estándar de facto, conocido como Industry Standard Architecture (ISA), que tiene otros nombres: AT Bus, System Bus, Conventional Bus, I/O Bus y IBM PC Bus.
Los fabricantes de placas base han integrado el bus ISA en masa y los proveedores de tarjetas de interfaz también las han adaptado para que sean compatibles con las ranuras del bus ISA. Esto dio como resultado una "arquitectura abierta" flexible, en la que se podían conectar periféricos de diferentes fabricantes, siempre que se proporcionara una tarjeta de interfaz que cumpliera con el estándar ISA. Este fue sin duda uno de los factores que contribuyó a la reducción de los precios de los periféricos y las tarjetas, lo que a su vez provocó la venta masiva de computadoras que desarrollaron la base de la actual revolución informática. El bus ISA todavía forma parte de más del 90% de las computadoras convencionales.
Cabe aclarar que en el bus ISA, cuando se inserta una nueva tarjeta, se deben seleccionar las opciones de los siguientes parámetros: las direcciones que tendrán los registros que los componen, el número de identificación para solicitar la interrupción y otras señales, mediante llaves o puentes denominados "jumpers", cuya posición viene indicada por los fabricantes.
Autobús local VESA (VLB)
En 1992, los fabricantes en conjunto en Video Electronics Standard Association (VESA) establecieron el estándar VESA VL, con especificaciones para la implementación del bus, señales eléctricas y diseño constructivo de los sockets de este bus.
Se parecen a los conectores de bus IBM MCA, son de color marrón, tienen cincuenta y seis contactos en cada lado y están ubicados cerca de la CPU en línea con los conectores de bus ISA. Según la normativa vigente, su número máximo es de tres. Solo la ranura Isa en su conjunto tuvo un mejor rendimiento de velocidad de datos. Poco después, fue reemplazada permanentemente por la ranura PCI.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 37
bus local pci
En 1992, la empresa Intel lideró la creación de un grupo que incorporó fabricantes de hardware para la industria informática. El bus de interconexión de componentes periféricos (PCI) es otra forma de acceso al bus local desarrollado para el Pentium después de que el bus VESA dominara el mercado del 486. Es adecuado para PC y otros tipos de computadoras.
A diferencia de VESA, el bus está conectado al bus local a través de un chip controlador especial y está diseñado para admitir sus ranuras (blancas, con 124 ranuras para 32 bits), además de tarjetas de video, disco duro y red local. para multimedia, audio, video y más.
PCI opera a 33 Mhz, con 32 y 64 líneas de datos transfiriendo hasta 132 MB/seg. Y respectivamente 264 MB/seg. como bus VESA (solo 32 bits). Las tarjetas que se conectan a las ranuras PCI son autoconfigurables (Plug and Play) o configurables por el sistema, como MCA, EISA y otros buses. Es decir, los circuitos están preparados para seleccionar automáticamente las direcciones que tendrán los registros que los componen, el número de identificación para solicitar una interrupción y otras señales, de forma que no haya incompatibilidad con otras placas conectadas.
interfaz pci
PCI ("Interconexión de componentes periféricos") es básicamente una especificación para interconectar componentes en computadoras. Dio lugar a un bus PCI, también llamado Mezzanine, en español entresuelos, porque actúa como una especie de capa adicional al tradicional bus ISA/EISA de la placa base. Es un bus de 32 bits que opera a 5V, 33 MHz, con una tasa de transferencia inicial de 133 Mb/s (megabits por segundo). Aunque continuamos llamándolo "Bus PCI", en realidad no es un bus local. Por lo tanto, ocupa una posición intermedia (de ahí el nombre mezzanine) entre el bus del procesador/memoria/chip y el bus ISA estándar. El bus PCI está separado del bus local por un controlador que actúa como puerta de enlace. Cuando la CPU escribe datos en periféricos PCI (como un disco duro), el controlador PCI los almacena en su búfer. Esto permite que la CPU participe en la siguiente operación en lugar de esperar a que se complete la transacción. Luego, el búfer envía los datos al periférico de la manera más eficiente posible. Fue diseñado pensando en el máximo rendimiento e incluye todas las funciones y características de los diseños más modernos (soporte multiprocesador, modo ráfaga, etc.). Presenta características que no son comunes en los sistemas de bus anteriores, por ejemplo:
• Configuración de software (sin puentes): PCI se diseñó con el estándar PnP ("Plug and Play") en mente, por lo que los dispositivos PCI solo se pueden configurar mediante software (aunque algunos fabricantes rompen el estándar). Cada dispositivo PCI debe estar diseñado para solicitar explícitamente los recursos que necesita (área de memoria asignada, direcciones de E/S, canales DMA, interrupciones, etc.).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 38
• Identificación: Los dispositivos PCI deben estar identificados por su fabricante, modelo, número de serie y código de clase. Los códigos de los fabricantes son gestionados por una autoridad central, el PCI SIG. El código de clase proporciona un método de identificación para la unidad del sistema operativo general. tener información básica sobre el dispositivo PCI conectado e, incluso si no hay un controlador específico, proporcionar un control básico del dispositivo.
• Diseño flexible: se pueden agregar nuevos códigos de fabricante o categoría en cualquier momento. De hecho, la especificación ya ha realizado muchas mejoras y ampliaciones. Por ejemplo, el bus AGP ("Advanced Graphics Port" H2.2) es una extensión reciente de la especificación PCI. También ranura SmallPCI, admite versiones de 64 bits y 3,3 V.
• Independencia: PCI no está vinculado a ninguna plataforma en particular. se puede implementar en casi cualquier cosa que no sea la arquitectura familiar IBM-PC/x86. De hecho, ha sido adoptado por muchos fabricantes de otras arquitecturas, por ejemplo Apple y SUN.
Variaciones PCI convencionales:
• PCI 2.2 para uso interno en portátiles. • Cardbus es un formato PCI PCMCIA de 32 bits y 33 MHz. • PCI compacto, utiliza módulos de tamaño Eurocard conectados a una tarjeta PCI. • PCI 2.2 funciona a 66 MHz (requiere 3,3 voltios en las señales) (velocidad de transferencia
máximo 503 MB/s (533 MB/s). • PCI 2.3 permite el uso de 3,3 voltios y señalización universal, pero no admite 5 voltios i
las cartas. • PCI 3.0 es el estándar de bus oficial final con soporte completo de 5 voltios
fue removido. • PCI-X cambia ligeramente el protocolo y aumenta la transferencia de datos a 133 MHz (índice
velocidad máxima de transferencia 1014 MB/s). • PCI-X 2.0 especifica una velocidad de datos de 266 MHz (velocidad de transferencia máxima de 2035 MB/s) y
también 533 MHz, amplía el espacio de configuración a 4096 bytes, añade una variante de bus de 16 bits y utiliza señales de 1,5 voltios.
• Mini PCI es un nuevo formato. • PC/104-plus es un bus industrial que utiliza señales PCI con diferentes ranuras.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 39
• La Arquitectura de Computación de Telecomunicaciones Avanzada (ATCA o AdvancedTCA) es el bus de próxima generación para la industria de las telecomunicaciones.
Esta diferencia en el rendimiento de PCI está provocando que muchos fabricantes cambien del color blanco tradicional a otros.
autobús AMR
AMR de English Audio Modem Riser. Es una ranura de expansión de placa base para dispositivos de audio como tarjetas de sonido o módems, lanzada en 1998, tiene 16 pines y forma parte del estándar de audio AC97 que sigue vigente en la actualidad, generalmente utilizado en placas base de propósito general. Originalmente fue diseñado como una ranura de expansión para dispositivos de comunicación o audio económicos, ya que utilizarían los recursos de la máquina, como el microprocesador y la memoria RAM. Esto tuvo poco éxito ya que se lanzó en un momento en que la potencia de la máquina no era suficiente para manejar tal carga y los controladores para estos dispositivos no tenían un soporte deficiente en los sistemas operativos que no eran de Windows.
autobús CNR
CNR Del inglés Communication and Network Riser. Es una ranura de expansión en la placa base para dispositivos de comunicación como módems, LAN o tarjetas USB. Intel lo introdujo en febrero de 2000 en sus placas para procesadores Pentium y era un diseño patentado, por lo que no se extendió a las placas que incluían conjuntos de chips Intel.
Sufrió los mismos problemas de recursos que los dispositivos diseñados para la ranura AMR. Puerto especial para tarjetas especiales como módems.
RAM
CNR CNR
RAM
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 40
Gráficos acelerados (AGP):
AGP (Accelerated Graphics Port a veces llamado Advanced Graphics Port) es un puerto (ya que solo se puede conectar un dispositivo [Solo video], mientras que muchos se pueden conectar al bus) desarrollado por Intel en 1996 como una solución a los cuellos de botella que aparecían en los gráficos. tarjetas que utilizan el bus PCI. El diseño se basa en las especificaciones PCI 2.1
Es el tipo de puerto gráfico más moderno y rápido disponible, pero ya está siendo reemplazado por el PCI-E más rápido y actual. A veces multiplica tu velocidad por 2x, 4x y 8x. AGP2x=512 Mb/seg. Agp4x= 1Gb/seg. Agp8x=2Gb/seg.
El propósito de este puerto es mejorar la calidad y la velocidad de las aplicaciones 3D, liberando así al procesador de los cálculos 3D.
Conceptos básicos de AGP
En 1996, Intel introdujo AGP 1.0. AGP fue una versión modificada de PCI diseñada para acelerar las transferencias en tarjetas de video. Les siguieron AGP 2.0 de 1998 y AGP 3.0 de 2002. Cada nueva versión agregaba nuevas velocidades y tendencias.
Versión AGP Tensión Velocidades máximas
AGP 1.0 3,3 voltios 1x em 267MB/s, 2x em 533MB/s
AGP 2.0 1,5 voltios 1x em 267MB/s, 2x em 533MB/s, 4x em 1067MB/s
AGP 3.0 0,8 voltios 4x hasta 1067 MB/s, 8x hasta 2133 MB/s
El voltaje que utiliza se utiliza para enviar datos entre la tarjeta AGP y el zócalo de la placa base. Los multiplicadores indican la velocidad real por el multiplicador para obtener la velocidad final en la tabla: 1x, 2x, 4x y 8x.
multiplicadores AGP
Multiplicadores de tensión versión AGP
posible
AGP 1.0 3.3
fue 1x, 2x
AGP 2.0 1.5
1x, 2x, 4x voltios
AGP 3,0 0,8
fue 4x, 8x
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 41
AGP tiene ocho multiplicadores de velocidad: 1x, 2x, 4x y 8x. Al observar los diferentes voltajes y los posibles multiplicadores de velocidad, podría pensar que hay una gran cantidad de tipos de tarjetas gráficas y placas base que admiten diferentes combinaciones de voltajes y multiplicadores. Pero en realidad es mucho más simple que eso. La especificación AGP 1.0 requiere que todas las implementaciones admitan el multiplicador de velocidad 1x a 3,3 voltios. El multiplicador 2x es opcional. No hay tarjeta gráfica o placa base de 3,3 voltios que solo admita 2x. De manera predeterminada, cuando las tarjetas AGP 1.0 están habilitadas, seleccionan el multiplicador de velocidad más rápido compatible con la tarjeta de video y la placa base. Aunque ambos admiten 2x, funcionarán a 2x. Si no se ejecutan a 1x, técnicamente se ejecutan en todas las placas base y tarjetas gráficas AGP 1.0. Por lo general, hay una opción en el BIOS que limita la velocidad a 1x, y la especificación AGP 2.0 tiene un requisito similar de que el soporte de 2x y 1x a 1,5 voltios es obligatorio y 4x es opcional. La especificación AGP 3.0 requiere compatibilidad con 8x, y las capacidades de 3.0 no son tan claras como las especificaciones 1.0 y 2.0, que requieren deliberadamente el multiplicador más bajo. Por compatibilidad entre una tarjeta gráfica AGP y una placa base, si ambas soportan el mismo voltaje, siempre habrá al menos un multiplicador de velocidad común soportado por ambas a ese voltaje. Solo es necesario asegurarse de que la tarjeta gráfica y la placa base tengan al menos un voltaje que señale un campo común.
diferencia de contacto
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 42
Enchufes y enchufes AGP:
vídeo analógico DB15
Vídeo digital DVI
televisor y hielera
sobre mc
Menos
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 43
Cada tarjeta AGP tiene uno o dos enchufes en el borde, si una tarjeta de video tiene un enchufe de 3,3 voltios, puede usar 3,3 voltios.
AGP 2.0 agregó un enchufe de 1,5 voltios a las placas que pueden usar soporte de 1,5 voltios. Si la tarjeta tiene ambas ranuras, puede usar ambos voltajes de señal. Se agregó compatibilidad con AGP 3.0 para 0,8 voltios. Tenga en cuenta que no se agregó una nueva clase de enchufe. Si una tarjeta gráfica admite 1,5 voltios o 0,8 voltios, tendrá un enchufe de 1,5 voltios.
Las ranuras de la placa base son la clave para evitar insertar tarjetas AGP que pueden dañarse si se insertan tarjetas con ranuras AGP con diferentes especificaciones técnicas. Un zócalo de placa base de 3,3 V solo puede aceptar tarjetas que tengan un zócalo de 3,3 V. De manera similar, un zócalo de placa base de 1,5 V solo puede aceptar tarjetas con un zócalo de 1,5 V. V. Un zócalo de placa base de uso general no tiene ranura y, por lo tanto, puede aceptar cualquier tipo de tarjeta APG. Se puede insertar una tarjeta AGP con ambas ranuras de voltaje en cualquier tipo de ranura de la placa base.
Hay ranuras adicionales en ambos extremos de la placa base para AGP que permiten que la tarjeta de video reciba más potencia. Las tarjetas AGP universales son totalmente compatibles con placas base de marcas conocidas, pero no al revés.
Soporte oficial AGP
Tipos de tarjetas gráficas (tabla de especificaciones AGP
3,0)
tipos de tarjetas
cuadro
Descripción del tipo de enchufe
Tarjeta AGP 3.3V
Toma 3.3V 3.3V. Velocidades 1x, 2x disponibles.
Tarjeta AGP 1.5V
Toma 1.5V 1.5V. Velocidad 1x, 2x, 4x disponible.
Tarjeta de propósito general AGP
ranura doble
3.3V y 1.5V. Velocidades disponibles 1x, 2x a 3,3V y 1x, 2x, 4x a 1,5V.
Tarjeta AGP 3.0
Toma de 1,5V 0,8V. Velocidades 4x, 8x disponibles.
Universalkort 1.5V AGP 3.0
Toma 1.5V 1.5V y 0.8V. 1x, 2x, 4x a 1,5 V y 4x, 8x a velocidades de 0,8 V disponibles.
Tarjeta universal AGP 3.0
ranura doble
3.3V, 1.5V y 0.8V AGP. 1x, 2x a 3,3 V y 1x, 2x, 4x a 1,5 V y 4x, 8x a velocidades de 0,8 V disponibles.
La tabla anterior proporciona los nombres oficiales de Intel para las diversas clases de tarjetas AGP permitidas por la especificación AGP. Desafortunadamente, las especificaciones técnicas de una tarjeta gráfica rara vez usan estos términos correctamente para describir
enchufe adicional
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 44
tarjeta de video. Suelen mostrar los multiplicadores AGP más rápidos: 8X, 6X o 4X. A partir de esta información y los conectores de voltaje en la caja de la tarjeta gráfica, puede saber exactamente qué es. Verá muchas tarjetas gráficas etiquetadas como tarjetas AGP 3.0 cuando en realidad son tarjetas AGP 3.0 de 1,5 V de uso general.
La placa base (tabla 15 de la especificación AGP 3.0)
tipos de placa base
Descripción del tipo de enchufe
Base AGP 3.3V
Sintonización de 3,3 V
3.3 V. 1x, 2x velocidades disponibles.
Placa base AGP 1.5V
Sintonizado 1.5V
1,5 V. Velocidad 1x, 2x, 4x disponible.
Placa base universal AGP
Universal admite velocidades de 3,3 V y 1,5 V. 1x, 2x a 3,3 V y 1x, 2x, 4x a velocidades de 1,5 V disponibles.
placa base AGP 3.0
Sintonizado 1.5V
0,8 V. Identificación eléctrica adicional para evitar el funcionamiento con 1,5 V. Velocidades 4x, 8x disponibles.
Placa base universal de 1,5 V
AGP 3.0
Sintonizado 1.5V
1,5 V y 0,8 V. Velocidades disponibles 1x, 2x, 4x a 1,5 V y 4x, 8x a 0,8 V.
Placa base universal AGP
3.0 universales
Admite velocidades de 3,3 V, 1,5 V y 0,8 V. 1x, 2x a 3,3 V y 1x, 2x, 4x a 1,5 V y 4x, 8x a velocidades de 0,8 V disponibles.
La tabla anterior proporciona los nombres oficiales de Intel para las diferentes clases de placas base AGP permitidas por la especificación.
Compatibilidad de placa base y tarjeta (tabla de especificaciones AGP 3.0 35)
Tarjeta AGP 3.3V
Tarjeta AGP 1.5V
tarjeta universal
AGP
Tarjeta AGP 3.0
tarjeta universal
1,5V AGP 3.0
Tarjeta de propósito general AGP 3.0
tarjeta madre
de AGP 3.3V
Él trabaja en
3,3 V
No cabe en la abertura.
Funciona con 3.3V
No cabe en la abertura.
No cabe en la abertura.
Funciona con 3.3V
tarjeta madre
de AGP 1,5V
no encajará
en el surco
Funciona con 1.5V
Funciona con 1.5V
Los ajustes en el
surco, pero no
ellos van a trabajar
Funciona con 1.5V
Funciona con 1.5V
tarjeta madre
universal de AGP
Él trabaja en
3,3 V
Funciona con 1.5V
Funciona con 1.5V
Los ajustes en el
surco, pero no
van a trabajar
Funciona con 1.5V
Funciona con 1.5V
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 45
tarjeta madre
desde AGP 3.0
no encajará
en el surco
ajustes
en la grieta, pero no
van a trabajar
ajustes
en la grieta, pero no
van a trabajar
Funciona con 0.8V
Funciona con 0.8V
Funciona con 0.8V
tarjeta madre
universal 1,5V AGP 3.0
no encajará
en el surco
Funciona con 1.5V
Funciona con 1.5V
Funciona con 0.8V
Funciona con 0.8V
Funciona con 0.8V
tarjeta madre
universal de AGP
3.0
Él trabaja en
3,3 V
Funciona con 1.5V
Funciona con 1.5V
Funciona con 0.8V
Funciona con 0.8V
Funciona con 0.8V
Práctica compatibilidad con AGP
La tabla anterior muestra que hay combinaciones de placas base y tarjetas de video que se pueden colocar juntas, pero no funcionarán. Según las especificaciones de AGP, no debería haber daños, pero la combinación no sería compatible. Quitar los protectores de entrada de 0,8 voltios de los enchufes AGP mostrará la compatibilidad con la tabla a continuación.
Práctica compatibilidad con placas base y tarjetas
Mapa
AGP 3,3V
Tarjeta AGP 1.5V
tarjeta universal
AGP
Universalkort 1.5V AGP 3.0
Tarjeta de propósito general AGP 3.0
tarjeta madre
AGP 3,3V
Funciona con 3.3V
no encajará
en el surco
Funciona con 3.3V
No cabe en la abertura.
Funciona con 3.3V
tarjeta madre
AGP 1,5V
no encajará
en el surco
Funciona con 1.5V
Funciona con 1.5V
Funciona con 1.5V
Funciona con 1.5V
tarjeta madre
AGP universal
Funciona con 3.3V
Funciona con 1.5V
Funciona con 1.5V
Funciona con 1.5V
Funciona con 1.5V
tarjeta madre
universal 1,5V AGP 3.0
no encajará
en el surco
Funciona con 1.5V
Funciona con 1.5V
Funciona con 0.8V
Funciona con 0.8V
tarjeta madre
universal de AGP
3.0
Funciona con 3.3V
Funciona con 1.5V
Funciona con 1.5V
Funciona con 0.8V
Funciona con 0.8V
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 46
Si una tarjeta AGP cabe en una ranura de placa base, ¿por qué no es compatible? Una respuesta práctica a tener en cuenta es que algunas de las placas base AGP 1.0 originales no proporcionan suficiente potencia para impulsar algunas tarjetas gráficas más nuevas.
Si está agregando una tarjeta gráfica a una placa base AGP 1.0, sería beneficioso instalar una tarjeta gráfica que no consuma mucha energía.
Ocasionalmente, puede haber conflictos de recursos de direcciones de memoria al instalar una nueva tarjeta gráfica AGP en una placa base AGP 1.0 antigua. La tarjeta gráfica funcionará correctamente hasta que se instale el controlador. Una vez que se instala el controlador, se creará un conflicto. Las variaciones de direcciones conflictivas varían según el modelo. Este problema es muy raro y cuando ocurre, rara vez es posible solucionarlo. La causa exacta del problema parece ser que la placa base y la tarjeta de video no son compatibles, Windows de alguna manera evita que asigne correctamente las direcciones de memoria a la tarjeta de video. No hay manera de predecir si habrá conflictos o no. También hay algún tipo de incompatibilidad causada por un BIOS de la placa base desactualizado y posiblemente el BIOS de la tarjeta gráfica. Una opción es intentar actualizar el BIOS de la placa base con un BIOS más nuevo. Pero dado que es una placa base antigua, el fabricante probablemente no tendrá todas las BIOS disponibles. Si está utilizando Windows 95, 98 o ME, es posible que pueda asignar direcciones manualmente y resolver el problema. Pero por lo general no puede resolver el problema por completo de todos modos. Si está utilizando Windows 2000 o XP, esto probablemente sea imposible de solucionar porque las versiones más nuevas de Windows casi siempre impiden la asignación manual de direcciones IRQ.
zócalos AGP
Hay algunas placas base que no utilizan el zócalo AGP correcto. Por ejemplo, este modelo de AOpen (AK79G) admite tarjetas gráficas de uso general AGP 3.0 de 1,5 V, pero tiene una ranura AGP de uso general que acepta tarjetas de 3,3 voltios, lo que significa que encaja perfectamente en la ranura. Afortunadamente, también está construido con un circuito que protege contra daños cuando se inserta una tarjeta AGP de 3,3 voltios y enciende un LED para indicarle que la tarjeta de video es una tarjeta de 3,3 voltios. Algunos fabricantes construyen la placa base de esta manera como una defensa contra las tarjetas de video con las ranuras de voltaje incorrectas. No puede dañar su placa base o tarjeta gráfica incluso si tiene las ranuras de voltaje incorrectas con este tipo de diseño.
Puede parecer que la placa base tiene una ranura AGP genérica cubierta por una etiqueta que no permite insertar tarjetas de 3,3 voltios. Según las especificaciones, no se suponía que hicieran eso. Los usuarios deben prestar atención primero porque si los fabricantes no siguen las especificaciones, es posible cometer un error y comprar la placa base equivocada.
Es una buena idea comprar hardware de fabricantes de renombre. Pero es bueno verificar que usaron el conector AGP correcto.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 47
La siguiente tabla muestra el tipo de placa base AGP que se usa comúnmente con su conjunto de chips en particular. Esta es una guía de compra de placas base. Recuerde también que incluso si un conjunto de chips es compatible con AGP, no significa que una placa base siempre tenga una ranura AGP. Algunas placas base (integradas) que usan conjuntos de chips AGP omiten la ranura AGP para reducir costos.
Chipset de placa base de clase de placa base
ALi TXPro (Aladdin IV) como conector AGP
Placa base ALi Aladdin V AGP 3.3V
ALi MAGiK 1 (M1647)
Placa base AGP de propósito general
Placa base AGP universal ALi M1649
AMD 750 (751) Placa base AGP 3.3V
Placa base AGP universal AMD 760 (761)
Placa base Intel 440BX AGP 3.3V
Placa base Intel 440EX AGP 3.3V
Intel 440FX sem ranura AGP
Placa base Intel 440GX AGP 3.3V
Placa base Intel 440LX AGP 3.3V
Placa base Intel 440ZX AGP 3.3V
Placa base Intel 440ZX-66 AGP 3.3V
Zócalo Sem AGP Intel 450GX
Zócalo Intel 450KX Sem AGP
Intel 450NX sem ranura AGP
Zócalo Intel 810 sem AGP
Placa base universal Intel 815 AGP
Placa base de uso general Intel 820 AGP
Placa base Intel 840 Universal AGP
Placa base Intel 845 AGP 1.5V
Placa madre Intel 848 Universal 1.5V AGP
3.0
Placa base Intel 850 AGP 1.5V
Placa base Intel 860 AGP 1.5V
Intel 865 placa base universal 1,5 V AGP
3.0
Intel 875 placa base universal 1,5 V AGP
3.0
Zócalo Intel 910 sem AGP
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 48
Intel 915 sem AGP Zócalo: PCI-
expresar
Ranura Intel 925 sem AGP: PCI-
expresar
Ranura Intel E7210 Semi AGP
Intel E7221 Semiranura AGP
Ranura Intel E7320 Semi AGP
Ranura Intel E7500 Semi AGP
Intel E7501 Sem ranura AGP
Placa base Intel E7505 Universal 1.5V AGP
3.0
Ranura Intel E7520 Semi AGP
Intel E7525 sem ranura AGP: PCI-
expresar
Tarjeta madre NVIDIA NForce AGP 1.5V
Tarjeta madre NVIDIA NForce 2 Universal 1.5V AGP
3.0
Tarjeta madre NVIDIA NForce 3 Universal 1.5V AGP
3.0
NVIDIA NForce 4 su ranura AGP: PCI-
expresar
Placa base AGP universal SiS630
Placa base AGP universal SiS645
Placa base AGP SiS648 Universal de 1,5 V
3.0
SiS649 sem ranura AGP: PCI-Express
Placa base AGP universal SiS650
Placa base AGP universal SiS651
Placa base AGP SiS655 Universal de 1,5 V
3.0
SiS656 sem ranura AGP: PCI-
expresar
Placa base SiS661 Universal 1.5V AGP
3.0
Placa base AGP universal SiS730
Placa base AGP universal SiS733
Placa base AGP universal SiS735
Bloqueo Sem SiS740 AGP
Placa base AGP SiS741 Universal de 1,5 V
3.0
Placa base AGP universal SiS745
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 49
Placa base universal SiS746 1.5V AGP
3.0
Placa base universal SiS748 1.5V AGP
3.0
SiS755 placa base universal 1,5 V AGP
3.0
SiS756 sem ranura AGP: PCI-
expresar
Placa base de uso general SiS760 d 1.5V AGP
3.0
VIA CLE266 sem slot AGP
VIA CN400 sem ranura AGP
Placa base universal VIA K8M800 1.5V AGP
3.0
VÍA K8T800 (VT8385)
Placa base universal 1.5V AGP 3.0
Placa base universal VIA K8T800 Pro 1.5V AGP
3.0
VIA K8T890 sem ranura AGP: PCI-
expresar
DEPORTE KLE133 (VT8361)
sem ranura AGP
VÍA KM133 (VT8365)
Placa base universal AGP
VÍA KM266 (VT8375)
Placa base universal AGP
VÍA KM400 (VT8378)
Placa base universal 1.5V AGP 3.0
PISTA KT133 (VT8363)
Placa base AGP de propósito general
VÍA KT266 (VT8366)
Placa base AGP de propósito general
VÍA KT333 (VT8367)
Placa base de propósito general AGP (algunas implementaciones son
AGP 1,5V)
VÍA KT400 (VT8377)
Placa base universal 1.5V AGP 3.0
Placa base universal VIA KT600 1.5V AGP
3.0
Placa base universal VIA KT880 1.5V AGP
3.0
VÍA KX133 (VT8371)
Placa base universal AGP
PISTA MVP3 (VT82C598AT)
Placa base AGP 3.3V
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 50
PISTA P4M266 (VT8751)
Placa base universal AGP (solo la mayoría de las placas base)
implementado es la placa base AGP 1.5V)
PISTA P4X266 (VT8753)
Placa base AGP de propósito general
PISTA P4X266A (VT8752)
Placa base AGP de propósito general
PISTA P4X333 (VT8754)
Placa base universal 1.5V AGP 3.0
PISTA P4X400 (VT8754)
Placa base universal 1.5V AGP 3.0
Placa base universal VIA P4X533 1.5V AGP
3.0
PISTA PLE133 (VT8601A)
sem ranura AGP
PISTA PLE133T (VT8602)
sem ranura AGP
VÍA PM133 (VT8605)
Placa base AGP de propósito general
VIA PM800 Placa base universal 1,5V AGP
3.0
Placa base universal VIA PM880 1.5V AGP
3.0
VIA Pro (VT82C691)
Placa base AGP 3.3V
VIA Pro 133 (VT82C693A)
Placa base AGP 3.3V
VIA Pro 133A (VT82C694X)
Placa base AGP de propósito general
VIA Pro 266 (VT8633)
Placa base AGP de propósito general
Placa base universal VIA PT800 1.5V AGP
3.0
Placa base universal VIA PT880 1.5V AGP
3.0
Placa base universal VIA PT880 Pro 1.5V AGP
3.0
VIA PT894 sem ranura AGP: PCI-Express
Ranura VIA PT894 Pro sem AGP: PCI-Express
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 51
La clave de AGP es la velocidad a la que se comunica con la memoria principal. Esto mejora las funciones 3D, como el mapeo de texturas almacenado en el framebuffer.
Ranura donde se conecta la tarjeta gráfica AGP:
E Radeon
Fuerza NVIDIA GE
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 52
PCI-Express:
Introducción
PCI Express (todavía denominado a veces por su nombre en código 3GIO, para "E/S de tercera generación") es el sucesor de la tecnología PCI, disponible en computadoras de escritorio desde 1992.
PCI Express está destinado a reemplazar no solo el bus PCI para dispositivos como módems y tarjetas de red, sino también el bus AGP, que ha sido el punto de conexión para las tarjetas gráficas desde 1997. A diferencia de su predecesor paralelo, PCI Express es un punto a -Sistema de interfaz serial de punto capaz de ofrecer transferencias de muy alto ancho de banda, a partir de 200 MB/seg. Para un crecimiento de 1X, hasta 4 GB/seg. Para PCI Express 16X para usar con tarjetas gráficas.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 53
La notación 1X y 16X se refiere al ancho del bus o al número de líneas disponibles. La conexión PCI Express también es bidireccional, lo que permite un ancho de banda teórico de hasta 8 GB/seg. Para una ranura 16X o unos impresionantes 16 GB/s. Para el máximo actual de 32X. PCI Express también incluye nuevas funciones como administración de energía, conexión y desconexión de dispositivos (como USB) y la capacidad de manejar transferencias de datos punto a punto, todo dirigido por una computadora host. Esto último es importante porque permite que PCI Express emule un entorno de red y envíe datos entre dos dispositivos compatibles sin tener que pasarlos primero por el chip host (un ejemplo sería transferir datos directamente desde una tarjeta de captura de video a la placa). sin que se almacenen en caché en la memoria principal).
PCI Express también optimiza el diseño de la placa base, ya que su tecnología serial solo requiere un solo cable para datos, en comparación con los 32 requeridos para PCI clásico, que también requería longitudes de datos para ser extremadamente precisos. La escalabilidad es otra característica importante, ya que las versiones más nuevas de PCI Express están destinadas a reemplazar las capacidades que PCI o, en el segmento de servidores, PCI-X pueden ofrecer.
Dado que PCI Express es, a nivel físico, una conexión de chip a chip, teóricamente se puede usar para reemplazar una gran cantidad de tecnologías de interconexión actuales. Sin embargo, solo se enfoca en tareas muy específicas.
En el siguiente gráfico, podemos ver una comparación de la capacidad de los autobuses a lo largo del tiempo:
Arquitectura
Un solo canal en PCI-Express ofrecerá inicialmente una velocidad de 2,5 Gbits/seg. en cada dirección. Cada ruta utiliza dos pares de cables (envío y recepción), lo que da una tasa de transferencia real de 200 MByte/seg. en cada dirección después de tener en cuenta el costo del protocolo. Pero sus creadores afirman que tendrá una escalabilidad limitada que permitirá hasta al menos 10 Gbits/s en cada ruta y en cada dirección.
La diferencia más obvia entre PCI-Express y su predecesor es que mientras PCI usa una arquitectura paralela, su sucesor usa una arquitectura punto a punto o serie conmutada. Una ventaja del bus serie sobre el paralelo es el alto ancho de banda que se puede lograr con un número mucho menor de señales. Estas conexiones no llegan a situaciones denominadas "delay skew", donde los bits paralelos llegan en momentos diferentes y deben estar sincronizados. Además, son más baratos de implementar. De hecho, las interfaces paralelas pueden ser extremadamente rápidas y muy eficientes, p. algunas interfaces a nivel de chip o tecnología SCSI.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 54
Características físicas y configuraciones de enlaces seriales:
Una conexión en serie PCI-Express simple consiste en una conexión dúplex que utiliza dos pares de señales de bajo voltaje enrutados diferencialmente, un par de recepción y un par de transmisión (cuatro cables). Una señal diferencial se obtiene utilizando la diferencia de potencial entre dos conductores. Duplex permite que los datos se transmitan en ambas direcciones al mismo tiempo, similar a las conexiones full-duplex (como en los teléfonos), excepto que cada par de cables tiene su propia conexión a tierra. Con el bus PCI, un dispositivo primero debe solicitar acceso al bus PCI compartido desde un árbitro central y luego tomar el control del bus para transferir datos al dispositivo de destino, con transferencia de datos en una dirección entre dos dispositivos cada punto.
Un flujo de datos/reloj en serie se puede transmitir a distancias mucho más largas que el uso de buses paralelos con relojes separados (los buses paralelos con relojes modernos sufren ruido de señal y problemas de recuperación). Además, las conexiones en serie son más baratas de implementar, lo que es bueno para conectar dispositivos de E/S internamente y también para conexiones externas largas. Sin embargo, extraer y construir los relojes de tal manera que funcionen como lo discutimos implica costos de procesamiento adicionales, por lo que es más probable que las interfaces paralelas se usen para conectar procesadores de alta velocidad y componentes de conjuntos de chips en los sistemas multiprocesador de hoy en día, ya que tienen menor latencia.
Características de transmisión:
Transmisión diferencial Al igual que otros buses informáticos que han evolucionado para la transmisión en serie (USB, Serial ATA), utiliza la técnica de señalización diferencial de bajo voltaje (LVDS).
transmisión sincrónica. La señal del reloj se mezcla con la información misma. Para ello utiliza una codificación 8b/10b que transmite 10 bits por cada 8 bits de información, generando un overhead del 20%.
Transmisión bidireccional Una conexión consta de 2 canales, uno directo y otro de retorno, que transmiten simultáneamente (dos canales simplex).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 55
más conexiones
PCI Express puede utilizar múltiples conexiones para una misma comunicación, dando lugar a configuraciones denominadas x1, x2, x4, x8, x12, x16, x32. Las ranuras x16 y x32 son para conectar dispositivos como tarjetas gráficas.
• Se pueden crear múltiples canales virtuales en un enlace múltiple.
• Cada canal puede transmitir hasta 2,5 Gbit/s.
Velocidad de transferencia en conexión PCI Express x32 Se puede enviar en una dirección: 2,5 Gbit/s x 32 canales = 80 Gbit/s = 10 GByte/s Si medimos transferencia simultánea en ambas direcciones: 160 Gbit/s = 20 GByte/s
Transmisión simultánea Se puede reservar y garantizar ancho de banda bajo demanda, logrando una transmisión en tiempo real. Esto se conoce como transferencia asíncrona, ya que se puede garantizar la duración de la transmisión de datos (es decir, en tiempo real).
Distancia La inclusión de la señal del reloj permite mayores distancias respecto a las líneas paralelas, cuya señal discurre por una línea separada. En el diseño de este autobús, el objetivo se fijó para permitir hasta 50 cm. distancia entre dispositivos con tecnología PCB de 4 capas y enchufes estándar. La distancia se puede aumentar mediante el uso de componentes de mayor calidad.
Mantenimiento
Consumo de energía - Bajo consumo debido a los bajos voltajes de operación. - Implementa funciones de ahorro de energía.
Ahorro de costos La transmisión en serie ahorra muchas líneas y, por lo tanto, los pines en los circuitos integrados, los rieles en las placas de circuitos impresos, los cables en los cables permiten conectores más pequeños. Compatibilidad con PCI Aunque la incompatibilidad del hardware es evidente, la compatibilidad con PCI se mantiene en los niveles de software, lo que permite un menor costo de implementación de controladores de dispositivos (drivers). Sustitución de conexión - Hot-plug - Hot-swap
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 56
Integridad de la señal
- Al reducir el número de trazas, permite medidas contra interferencias electromagnéticas (EMI).
- La conexión serie tiene menos problemas de propagación debido a la diferencia de longitudes de camino.
- La señal diferencial reduce los problemas de ruido.
Errores: gestión de errores integrada, incluida la capacidad de generación de informes.
topología
En la figura se muestra un complejo raíz (probablemente un dispositivo de conjunto de chips de tipo Northbridge que conecta el subsistema de CPU/memoria a los dispositivos de E/S), conmutadores (que internamente tienen lógica de PCI a PCI para mantener la compatibilidad). y varias secciones en las "hojas" del "diagrama".
Ciertos puentes como PCI-to-PCI Express también se pueden integrar. El siguiente diagrama de especificación de PCI Express 1.0 muestra una topología de ejemplo como se describe. Se puede ver cómo algunas arquitecturas de sistemas informáticos se asemejan a la arquitectura mostrada:
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 57
En la siguiente tabla podemos ver la forma de los pines generales del conector (es decir, tendrán todas las ranuras PCI-Express independientemente del ancho 1x, 2x, 4x, etc.) y se expandirá a medida que el bus crezca en área de ancho. .
Vista lógica de un conmutador en PCI Express:
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 58
Paquete de transacciones PCI-Express:
Los paquetes en PCI-Express cubren cuatro tipos básicos de transacciones: memoria, E/S, configuración y mensajería. La siguiente imagen muestra una solicitud de paquete que viaja del dispositivo B al dispositivo A y otra de A a B. Esto puede ser cualquier cosa, desde una lectura de memoria, una escritura, una lectura de E/S, una transacción de configuración y cada uno tiene una fase de solicitud. y una fase de finalización.
Además, las transacciones de PCI Express utilizan un mecanismo de control basado en el flujo de crédito (administrado por la capa de abstracción de transacciones) para garantizar que el dispositivo de destino tenga suficientes recursos de búfer (disponibles) para aceptar el tamaño y el tipo de transferencia de datos desde el dispositivo de envío.
cortacircuitos:
PCI Express admite dos tipos de interrupciones, las interrupciones PCI INTx heredadas más antiguas (donde x = A, B, C o D) mediante una técnica de emulación y las interrupciones de señalización de mensajes (MSI) más nuevas. MSI es opcional en los dispositivos PCI 2.2/2.3, pero se requiere en los modelos más nuevos de dispositivos PCI Express.
La emulación INTx puede señalar interrupciones en el chipset principal. Es compatible con los controladores PCI y el software del sistema operativo. Visualiza señales de interrupción de PCI físicas utilizando un mecanismo de señalización por banda. Los dispositivos PCI Express deben admitir funciones INTx y MSI heredadas, y los dispositivos heredados incorporarán información de interrupción INTx en una transacción de mensaje PCI-Express (uno de los tipos de transacciones que discutimos un poco más arriba).
Las interrupciones MSI están activas en el borde y se envían a través de transacciones de escritura en memoria. El controlador se reemplazará según sea necesario para aprovechar el uso de interrupciones de borde MSI. El esquema MSI es el método previsto originalmente para la propagación de interrupciones mediante un protocolo de paquetes a través de una conexión en serie. MSI es más eficiente en sistemas multiprocesador ya que cualquier dispositivo puede emitir interrupciones directamente a diferentes hosts. Muchos procesadores y arquitecturas de sistemas de E/S permiten el uso de técnicas MSI.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 59
PCI Express en el mundo de los gráficos:
Con tantas características nuevas y ancho de banda para escribir, PCI Express es un gran paso adelante de PCI y AGP. Sin embargo, mantiene la compatibilidad con el software PCI, conserva la memoria y los modelos de arranque, lo que significa que los controladores y los sistemas operativos no tendrán demasiados problemas para admitir el nuevo sistema.
En el mundo del procesamiento gráfico, PCI-Express vuelve a ganar terreno, ya que un bus con tantas expectativas está causando gran expectación entre los fabricantes de tarjetas gráficas como NVIDIA y ATI, por ejemplo.
Algunos de los mayores beneficiarios de los desarrollos de PCI Express serán las mencionadas ATI y NVIDIA, así como otros fabricantes de tarjetas gráficas. Dado que la ranura PCI Express NO será compatible con las tarjetas AGP actuales, las tarjetas deben adaptarse al bus si desea cambiar de tarjeta o de tarjeta.
Por supuesto, los fabricantes de sistemas gráficos aprecian no solo los beneficios fiscales de PCI Express, sino también sus mejoras técnicas, que incluyen no solo un mayor ancho de banda, sino también más energía eléctrica disponible. El AGP 8x actual (o AGP 3.0) ha superado sus límites en términos de rendimiento y claramente es hora de un cambio. PCI Express aliviará muchos de los problemas de temporización del AGP actual y casi triplicará la corriente eléctrica máxima disponible para la tarjeta, colocándola por delante de AGP y muchos buses, incluido el PCI clásico.
Una señal más limpia y más energía eléctrica puede ser una mejora significativa, especialmente en el procesamiento de gráficos avanzado. Un buen efecto secundario es que PCI Express facilitará la instalación de varias tarjetas gráficas de gama alta en la misma computadora, lo que actualmente no es tan fácil. Antes de eso, sin embargo, los fabricantes tendrán que solucionar muchos otros problemas, como el sobrecalentamiento y los mecanismos para disipar este calor (los grandes ventiladores de hoy), porque si con PCI-Express apuntamos a una posible reducción de las dimensiones del panel de pie, también puede reducir un poco el espacio interno para instalar dispositivos y promover la acumulación de fuentes de calor.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 60
¿Qué es la tecnología NVIDIA SLI? La tecnología NVIDIA® SLI™ es una innovación revolucionaria que le permite aumentar drásticamente el rendimiento de los gráficos mediante la combinación de múltiples GPU NVIDIA en un solo sistema alimentado por un procesador de comunicaciones y medios (MCP) NVIDIA nForce® SLI. La tecnología NVIDIA SLI ofrece hasta el doble de rendimiento de gráficos que una única solución de gráficos mediante el uso de algoritmos de software patentados de NVIDIA y lógica de escalado patentada en cada GPU y cada MCP. Esto le permite instalar dos tarjetas gráficas y conectarlas a través de un puente que actúa como enlace entre los dos componentes y luego el software hace el resto. Ranuras y tarjetas SLI:
SLI hermano
Vista Lateral
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 61
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 62
Modelador PCI Express
Datos técnicos de los autobuses:
Tasa de transferencia de enchufe
ISA de 16 bits 16 MB/s EISA 32 MB/s VLB 132 MB/s PCI 132 MB/s
AGP 1x 264MB/s AGP 2x 528MB/s AGP 4x 1056MB/s AGP 8x 2112MB/s PCIe x1 500MB/s (Un carril de datos - ambas direcciones) PCIe x2 1000MB/s (Ambos x0 carril de datos PCI4) MB s (cuatro carriles - ambas direcciones) PCIe x8 4000 MB/s (ocho carriles de datos - ambas direcciones) PCIe x12 6000 MB/s (doce carriles de datos - ambas direcciones) PCIe x16 8000 MB/s (4000 MB/s s por dirección (dos) direcciones)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 63
Comparación de enchufes:
Desde arriba:
Zócalo de la CPU:
Se trata de una serie de pequeños orificios (socket) que se encuentran en una placa base (mainboard) donde encajan sin dificultad los pines de un microprocesador. Dicha matriz denominada Pin Grid Array o simplemente PGA, permite la conexión entre el microprocesador y dicha placa base. En los primeros ordenadores personales, el microprocesador iba soldado directamente a la placa base, pero la aparición de una gran variedad de microprocesadores llevó a la creación del Socket, que permitía el intercambio de microprocesadores en una misma placa.
Actualmente, cada familia de microprocesadores requiere un tipo de socket diferente, ya que existen diferencias en la cantidad de pines, su disposición geométrica y la interfaz necesaria con los componentes de la placa base. Por tanto, no es posible conectar un microprocesador a una placa base con un zócalo no diseñado para ello.
Algunos zócalos de CPU disponibles comercialmente tienen las siguientes designaciones:
• Socket 478, para microprocesadores Intel Pentium 4 • Socket 775, para microprocesadores Pentium D y algunos procesadores Intel Pentium 4 • Socket 939, para microprocesadores AMD Athlon 64 • PAC611, para microprocesadores Intel Itanium 2.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 64
• AM2, para procesadores AMD.
lista de enchufes
Hay muchos tipos de zócalos utilizados por diferentes CPU, enumerados hasta ahora en orden de edad.
• Intel Itanium PAC611 • Intel Itanium PAC418 • Socket T (Land Grid Array-775) Intel Pentium 4 y Celeron1 • Socket 604 Xeon • Socket 480 Intel Pentium M (dual core) • Socket 479 Intel Pentium M (núcleo único) y Celeron • Socket 478 Intel Pentium 4 y Celeron • Socket 423 Intel Pentium 4 • Socket 370 Intel Celeron y Pentium III • Zócalo Zócalo AM2 de 940 pines, pero no compatible con los primeros Opteron y Athlon64
p.ej. Algunos miembros serán: AMD "Orleans" Athlon 64, AMD "Windsor" Athlon 64 X2, AMD "Orleans4" Athlon 64 FX. Publicado el 6 de junio de 2006
• Zócalo AMD Opteron F. Lanzado en 2006 • Zócalo S AMD Turion 64, lanzado en 2006 • Zócalo 939 AMD Athlon 64 / AMD Athlon 64 FX a 1 GHz / Sempron • Zócalo 940 AMD • Zócalo AMD Turion 74 • Zócalo A más reciente • Zócalo 563 Mobile Low Power Athlon XP-M (zócalo m-PGA, piezas móviles SOLAMENTE) • Socket 1 Intel Pentium II y Pentium III Legacy • Socket A First AMD Athlon y Alpha • 8 Sockets Intel Pentium Pro • 7 Super Sockets AMD K6-2 y AMD K6-III
• Socket 7 Intel Pentium y compatible con Cyrix, AMD • Socket 6 Intel 486 • Socket 5 Intel Pentium 75-133MHz y compatible • Socket 4 Intel Pentium 60/66MHz • Socket 3 Intel 486 (3.3v y compatible • Intel48 y 5v) Socket 1 Intel 486 • 486 Intel Zócalo 486
Conector ZIF (Fuerza de inserción cero):
Los primeros sockets no tenían ningún mecanismo que permitiera una fácil instalación del microprocesador, la tarea de colocarlo en el socket era fácil pero a la vez peligrosa, cualquier error provocaba la rotura de los pines. Con la introducción de ZIF (Zero Insertion Force) en el mercado, se conecta un microprocesador a un mecanismo que permite una fuerza de inserción cero, es decir, la parte superior del zócalo se desliza y permite una fácil colocación sin ningún riesgo, gracias a esto es posible insertar microprocesador en un sistema mecánico sin necesidad de fuerza, evitando así el riesgo de romper uno de sus terminales de contacto.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 65
Enchufes de 4ª generación:
Nombre: Socket 1 Pines: 169 LIF y 169 ZIF Voltajes: 5 V Bus: 16, 20, 25, 33 MHz Multiplicadores: 1x - 3x Micrófonos compatibles: 486SX (16~33 MHz) 486SX6Sri (50~6) MHz) 4 P 25~33 MHz) 486SX2 OverDrive (P 50 MHz) 486DX (20~33 MHz)
486DX2 (50 ~ 66 MHz) 486DX4 (75 ~ 120 MHz, προσαρμογέας COM) 486DX Sobremarcha (P 25 ~ 33 MHz) 486DX2 Sobremarcha (P 50 ~ 66 MHz) 486DX4 Sobremarcha (P 75 ~ 100d MHz) 2 ~ 46 66 MHz 486DX4 OverDrive (PR 75~100 MHz) Am5x86 (133 MHz, adaptador com) Cx486 Cx486S
Nombre: Zócalo de 2 pines: 238 LIF y 238 ZIF Voltajes: 5 V Bus: 25, 33, 40, 50 MHz Multiplicadores: 1x - 3x Micrófonos compatibles: 486SX (25~33 MHz) 486SX2 4MHz (50~6) 25~33MHz )
486SX2 OverDrive (P 50 MHz) 486DX (25~50 MHz) 486DX2 (50~80 MHz) 486DX4 (75~120 MHz, adaptador medio) 486DX OverDrive (P 25~3DXOverDrive (P 25~3Dri) P 75~100 MHz) 486DX2 OverDrive (PR 50~66 MHz) 486DX4 OverDrive (PR 75~100 MHz) Pentium OverDRive (P 63~83 MHz) Am5x86 (133 MHz, adaptador med8S) Cx4
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 66
Socket 1 y 2: Para los primeros microprocesadores 386 y 486. (Como se muestra en la imagen, no tiene tecnología ZIF)
Nombre: 3 pines Zócalo: 237 LIF y 237 ZIF Voltajes: 3.3 / 5 V Bus: 25, 33, 40, 50 MHz Multiplicadores: 1x - 3x Micrófonos compatibles: 486SX (25~33 MHz) 425~33 MHz (~ 60SXz ) OverDrive (P 25~33 MHz) 486SX2 OverDrive (P 50 MHz) 486DX (25~50 MHz)
486DX2 (50~80 MHz) 486DX4 (75~120 MHz) 486DX OverDrive (P 25~33 MHz) 486DX2 OverDrive (P 50~66 MHz) 486DX4 OverDrive 0 8D ~ 75 DX4 OverDrive (PR 75 ~100 MHz) Pentium OverDRive ( P 63~83 MHz) Am5x86 (133 MHz) Cx486 Cx486S Cx5x86 (100~120 MHz)
Enchufes de 5ª generación
Slot 7: Permitía insertar una amplia gama de procesadores ya que permaneció activo durante mucho tiempo. Esta ranura se utilizó para instalar procesadores Intel Pentium, Pentium MMX, AMD K6, K6-2, etc. Entre muchos otros.
Especificaciones: Zócalo 7 Pines: 296 LIF y 321 ZIF Voltajes: Split, STD, VR, VRE, VRT (2.5 - 3.3 V) Voltajes: 40, 50, 55, 60, 62, 66, 68, 75,0 83, 90 , 95, 100, 102, 112, 124 Multiplicadores: 1,5x - 6,0x Micros Compatible: Pentium P45C (75~200 MHz) Pentium MMX P55C (166~266 MHz ~ 250 MHz) AMD207 (MHz) MHz ) K6 (166~ 300 MHz) K6-2 (266~570 MHz) K6-2+ (450~550 MHz) K6-III (400~450 MHz)
K6-III+ (450~500 MHz) Cyrix 6x86 PR90+ en PR200+ Cyrix 6x86L PR120+ en PR200+ Cyrix 6x86MX (PR166+ a PR133+) Cyrix MII (233Hz MII (233Hz) ~ 65 m2 MHz) 61 MHz) Cabrestante p2 (200~240 MHz) Winchip2A /B (200~300 MHz) Rango: Rango de 100 MHz de FSB es chamodos de "Socket Super
Slot 8: Slot aplicado a la computadora Intel "Pentium Pro", muy famosa a pesar de su antigüedad, ya que fue la primera en implementar caché dentro de la carcasa de la computadora y permitir la comunicación a la misma velocidad.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 67
Enchufes de 6ª generación:
Nombre: Socket 370 Pines: 370 ZIF Voltajes: VID VRM (1.05 - 2.1 V) Bus: 66, 100, 133 MHz Multiplicadores: 4.5x - 14.0x Microondas: Celeron (Mendocino3000, 03) MHz - 1'1 GHz) Celeron (Tualatin, 900A MHz - 1'4 GHZ) Pentium III (Coopermine, 500E MHz - 1'13 GHZ) Pentium III (Coopermine-T, 866 MHz - 1'13 GHZ)
Pentium III (Tualatin, 1'0B - 1'33 GHZ) Pentium III-S (Tualatin, 700 - 1'4 GHZ) Cyrix III (Samuel, 533, 667 MHz) Vía C3 (Samuel 2, 733A - 803A MHz) ( Ezra, 800A - 866A MhZ) Vía C3 (Ezra-T 800T MHZ - 1'0T GHz) Vía C3 (Nehemías, 1 - 1'4 GHz)
Socket 370 o PGA 370: un tipo de socket utilizado por los últimos procesadores Intel Pentium III y Celeron. Por cierto, PGA significa "Pin Grid Array" o "Contact Grid Matrix".
Enchufes de séptima generación:
Nombre: Socket A/462 Pines: 462 ZIF Voltajes: VID VRM (1.1 - 2.05 V) Bus: 1002, 133x2, 166x2, 200x2 MHz Multiplicadores: 6.0x - 15.0x Micros soportados: 0fir-09, 5 MHz Duron (Morgan, 1 - 1,3 GHz) Duron (Appaloosa, 1,33 GHz) Duron (Applebred, 1,4 - 1,8 GHz) Athlon (Thunderbird 650 MHz - 1,4 GHz) Athlon 4 Mobile (Palomino00, Palomin) + )
Athlon XP (Pura sangre A, 2200+) Athlon XP (Pura sangre B, 1600+ a 2800+) Athlon XP (Barton, 2500+ a 3200+) Athlon MP (Palomino, 1 GHz y 2100 MPT, 200+) Athlon ) 2600 + Notas: todos los micros mençãos são de AMD
Αριθμός: Socket 478 Pinos: 478 ZIF Antal: VID VRM Bus: 100x4, 133x4, 200x4 MHz Multiplicador: 12.0x - 28.0x Micros tilslutninger: Celeron (Willamete, 1'H27'z, 1'8, 1', 1'8 -71') 8 GHz) Celeron D (Prescott 310/2'333 Ghz - 340/'2933 GHz) Pentium 4 (Willamette 1'4 - 2'0 GHz) Pentium 4 (Northwood 1'6A - 3'4C) Pentium 4 (Prescott, 2,26A - 3,4E GHz) Pentium 4 Extreme Edition (Gallatin, 3'2 - 3'4 GHz) Pentium M (Banias, 600 MHz - 1'7 GHz, adaptador com)
Pentium M (Dothan, 600 MHz - 2'26 GHz, adaptador med)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 68
Notas: Soporte de micrófono similar a Socket 423, pero notablemente menos Socket 462 o Socket A: conector diseñado para insertar procesadores AMD Athlon.
Nombre: Socket 479 Pines: 478 ZIF Voltajes: VID VRM Bus: 100x4, 133x4 MHz Multiplicadores: 12x - 28x Micros Franqueo: Celeron M (Dothan, 380/1'6 y 390/1'7Y1 GHz, en Celeron, 1) 466 a 430/1'733 GHz) Pentium M (Dothan 735/1'7 a 770/2'133 GHz) Core Solo (Yonah, 1'833 GHz) Core Duo (Yonah, T2300/1667 a T2606/2 GHz) Core 2 Dúo (Merom, T550/1'667 y T7600/2'333 GHz)
Nombre: Socket 423 Pines: 423 ZIF Voltajes: VID VRM) 1.0 - 1.85 V) Bus: 100x4 MHz Multiplicadores: 13.0x - 20.0x Micro soportado: Celeron (Willamette, 1.7 - 1.8 H, adaptador Pension 40xH, adaptador Pension 1.7 - 1.8 WGH, 40x4 MHz). micras, 1,3 - 2 GHz) Pentium 4 (Northwood, 0,13 micras, 1,6 A - 2,0 A GHz, con adaptador) Notas: Memoria RAMBUS
Socket 423 y 478: Ambos sockets corresponden al Pentium 4, pero el segundo es el más moderno y soporta frecuencias superiores a los 2 Ghz. También para el último Celeron.
Enchufes de octava generación:
Nombre: Socket 754 Pines: 754 ZIF Voltajes: VID VRM (1.4 - 1.5 V) Bus: 200x4 MHz Multiplicadores: 10.0x - 12.0x Micrófonos compatibles: Athlon 64 (Clawhammer, 2800 (40+) a 0+C.+) Athlon 64 (Newcastle, 2800+ a 3000+) Sempron 64 (París, 2600+ a 3300+) Sempron 64 (Palermo, 2600+ a 3400+)
Nombre: Socket 940 Pines: 940 ZIF Voltajes: VID VRM (1,5 - 1,55 V) Bus: 200x4 MHz Multiplicadores: 7,0x - 12,0x Micrófonos compatibles: Athlon 64 (Sledgehammer, FX-51 y FX-51 y Sledgehammer, FX -53 ) - 150) Opteron (Dinamarca, 165- ???)
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 69
Opteron (Sledgehammer, 240 - 250) Opteron (Troy, 246 - 254) Opteron (Italia, 265 - 285) Nombre: Socket 771 Pines: 771 bolas FC-LGA Voltajes: VID VRM Bus: 160H2x4, x - 18.0x Micro compatible: Xeon (Dempsey, 5030/2'67 a 5050/3'0 GHz, FSB 667) Xeon (Dempsey, 5060/3'2 a 5080/3,73 GHz, FSB 1033 Xeon) '6 a 5120/1'866 GHz, FSB 1066) Xeon (Woodcrest 5130/2'0 a 5160/3'0 GHz, FSB 1333)
Notas: El núcleo de Woodcrest es dual (doble núcleo)
Nombre: Socket M2 Pines: 638 ZIF Voltajes: VID VRM Bus: 200x4 MHz Multiplicadores: 11.0x - 15.0x Micros soportados: Opteron 1xx
Ονομασία: Sokkel 775 o T Pines: 775 bolas FC-LGA Spændinger: VID VRM (0,8 - 1,55 V) Bus: 133x4, 200x4, 266x4 MHz Multiplicador: 13,0x - 22,0x para cottontiler (3 Micro) 2 algodón, 3 algodón) 533 a 355/3'333 GHz, FSB533) Celeron D (Cedar Mill, 352/3'2 a 356/3'333 GHZ, FSB533) Pentium 4 (Smithfield, 8665/GHZ FSB 533) Pentium Prescott, 505/2.666 και 571/3,8 GHZ, FSB 533/800)
Pentium 4 (Prescott 2M, 630/3'0 και 672/3,8 GHZ, FSB 533/800) Pentium 4 (Cedar Mill, 631/3'0 a 661/3'6 GHz, FSB 800) Pentium D (Presler ), 915/2'8 y 960/3'6 GHZ, FSB 800) Intel Pentium Extreme (Smithfield, 840, 3'2 GHz) Pentium 4 Extreme (Gallatin, 3'4 - 3'46 GHz) Pentium 4 Extreme ( Prescott, 3,73 GHz) Intel Pentium Extreme (Presler, 965/3073 GHz).
Core 2 Duo (Allendale, E6300/1'866 a E6400/2133 GHz, FSB 1066) Core 2 Duro (Conroe, E6600/2'4 a E6700/2'666 GHz, FSB 1066 a E60E, X80E) Core (60E) /2'933 GHZ) Core 2 (Millville, Yorkfield, Bloomfield) Core 2 Duo (Wolfdale, Ridgefield) Core 2 Extreme (Kentsfield, cuatro núcleos) Notas: Los núcleos Presler, Allendale y Conroe son dual core.
Nombre: Socket 939 Pines: 939 ZIF Voltajes: VID VRM (1.3 - 1.5 V) Bus: 200x5 MHz Multiplicadores: 9.0x - 15.0x Micrófonos compatibles: Athlon 64 (Victoria, 2GHz+) Athlon 0+0.3
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 70
Athlon 64 (Newcastle, 2800+ a 3800+) Athlon 64 (Sledgehammer, 4000+, FX-53 y FX-55) Athlon 64 (San Diego, 3700+. FX-55 y FX-57) Athlon Diego 64 (S) Athlon 64 (Winchester 3000+) Athlon 64 X2 (Manchester, 3800+ a 4600+) Athlon 64 X2 (Toledo, 4400+ a 5000+ y FX-60) Athlon 64 X2 (Kimono) Opteron 4-V. -1.5) (Dinamarca, 165-185) Sembron (Palermo, 3000+ a 3500+) Notas: X2 Manchester, Toledo y Dinamarca son equipos dobles.
Nombre: Zócalo AM2 Pines: 940 ZIF Voltajes: VID VRM (1.2 - 1.4 V) Bus: 200x5 MHz Multiplicadores: 8.0x - 14.0x Micrófonos compatibles: Athlon 64 (Orleans, 3200+ a A4+) 2640 (Windsor, 3600+ a 5200 +, FX-62) Athlon 64 X2 (Brisbane) Athlon 64 X2 (Arcturus) Athlon 64 X2 (Antares) Athlon 64 Quad (Barcelona)
Athlon 64 Quad (Budapest) Athlon 64 Quad (Altair) Opteron (Santa Ana, 1210 a 1216) Sempron64 (Manila, 2800+ a 3600+) Athlon 64 (Sparta): Windsor y Santa Ana son de doble núcleo. - Windsor trae entre 256 y 1024 Kb de cache, compara modelos.
Acrónimo:
• LIF: Low Insertion Force (sin palanca) • PGA: Pin grid array • SECC: Single Edge Contract Cartridge • SEPP: Single Edge Processor Pakke • SPGA: Staggered Pin Grid Array • VID VRM: Voltage ID Voltage Regulator Module (el voltaje de la CPU puede variar en
la BIOS) • VLIF: Fuerza de inserción muy baja • ZIF: Fuerza de inserción nula (con mango)
Microprocesadores por CASTILLO
El zócalo 1 introdujo un cambio con respecto a los zócalos anteriores: mientras que los Pentium y versiones anteriores usaban un zócalo ZIF PGA/SPGA, que es cuadrado, el zócalo 1 está alojado en un cartucho de conector de un solo lado (SECC), que es alargado. . El procesador es como una tarjeta PCI, pero con una conexión de 242 pines a la placa base.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 71
La parte trasera es una pieza sólida de plástico. Si desea montar un disipador de calor, debe estar en la parte superior.
Algunas placas base tienen un sistema de retención de la CPU, que consiste en piezas de plástico a ambos lados del zócalo en la ranura 1. Este sistema no es tan cómodo como otros zócalos y, a veces, hay que forzar estas piezas para insertar o quitar un procesador.
Hay 3 tipos de tragamonedas:
Ranura A: en esta ranura se instalaron procesadores AMD Athlon más antiguos. Ranura 1: esta ranura corresponde a los procesadores Intel Pentium II, así como a los procesadores Pentium III más antiguos. Socket 2: Esta conexión es más conocida a nivel de servidor de red donde está instalado el procesador Xeon. Los 3 tipos de enchufes son muy similares y se pueden incluir en la imagen a continuación:
donde también se pueden ver los agujeros donde se instaló un soporte para el microprocesador, el cual era tan alto y voluminoso que necesitaba un soporte extra:
Finalmente en esta zona vemos un microprocesador Pentium II:
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 72
Básicamente, el slot fue una evolución de Intel (Slot 1) para aumentar la velocidad de sus microprocesadores, que en el formato Socket tenían problemas. Con esta brillante idea, Intel se posicionó nuevamente en la cima del desarrollo de procesadores, y los Pentium II, III y Celeron ingresaron al mercado, dejando atrás a su principal competidor, AMD, que se mantuvo en el formato Socket, pero luego también adoptó los Slots. , pero lo llamo Slot A, no son compatibles entre sí.
Tabla de referencia estimada:
PreSocket 132 386 PreSocket 387 PreSocket 168 486 PreSocket Weitek Socket 1 169 3 5V 486SX, 486DX, 486DX2, 486DX4 OD Socket 2 238 2XD8, 4DXT ium OD
Soquete 3 237 4 5V / 3,3V 486SX, 486DX, 486DX2, 486DX4, Pentium OD, 5x86
Zócalo 4 273 4 5V Pentium 60-66, Pentium OD Zócalo 5 320 5 3,3 V Pentium 75-133 MHz, Pentium OD Zócalo NexGen 463 NexGen Nx586 Zócalo 6 235 VD 4ver.
Tomada 7 (FSB66) 321 5 2.5- 3.3V
Pentium 75-200 MHz, Pentium OD, Pentium 2010, Pentium 2010 OD, K5, 6x86, K6, 6x86MX
SuperSocket 7 (FSB100) 321 5 2.0-
Pentium MMX de 3,3V, K5, K6, K6-II, K6-III, 6x86, 6x86L, MII, mP6, C6, WinChip2, Crusoe
Sokkel 8 387 5 3,1 V/3,3 V Pentium Pro, Pentium Pro OD, Pentium II OD
Socket 370 370 6 Celeron Socket FC-PGA 370 Pentium II, III, Celeron FlipChip Version Socket FC-PGA2 418 Dual Pentium II Socket USD8 Mobile Pentium II con equipo BGA-2 (μPGA-2) Socket 423235 Pentium M4 Socket 479 (cancelado) 479 Prescott v0.9
Zócalo µPGA478 478 Pentium 4 Zócalo 603 603 Pentium 4 Xeon (Foster) Zócalo µPGA604 604 Pentium 4 (Prestonia) Zócalo 462 / A 462 Athlon, Duron, Spitfire Duron 4, Spitfire 4, Spit
Sokkel 775 LGA 775 Intel Celeron, P4 HT
Zócalo 563 µPGA 563 AMD sangre pura
Zócalo 754 754 AMD Athlon 64 Zócalo M2 940 AMD Athlon FX
Zócalo AMD AM2 940 AMD Opteron, Athlon FX 64 X2, Semprom HTT
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 73
Socket 1 (SC242) 242 n/a 2,8 V/3,3 V Pentium II, Pentium Pro (con socket 8 en placa secundaria)
Υποδοχή 2 (SC330) 330 n/a Pentium II Xeon, Pentium III Xeon, Celeron Ranura A n/d AMD K7 Ranura B DEC alpha Ranura M (PAC-418) 418 Merced, Itanium
disquete:
Es responsable de controlar la unidad de disquete. Su trabajo es tomar solicitudes de software y dispositivos y asegurarse de que esas solicitudes se cumplan. Un ejemplo es leer un byte a este dispositivo que proviene de un bloque de datos en una ubicación específica en el disquete.
Cuatro ranuras SATA
Zócalo IDE
FDC o ranura para disquete
tarjeta madre
Cable de disquete antiguo para unidades de disquete de 5 ¼ y 3 1/2
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 74
La unidad de disquete debe enchufarse más allá del corte en un extremo del cable de disquete, esto le indica al sistema que es la unidad A:. Actualmente, la disquetera es un hardware casi obsoleto, por lo que no se instala, aunque muchos usuarios lo solicitan. Como reemplazo de este cable, apareció en el mercado un cable más moderno con solo dos conectores (uno para la placa base y otro para la disquetera).
Zócalo IDE:
IDE son las siglas de Integrated Drive Electronics o ATA (Accesorio de tecnología avanzada) que controla dispositivos de almacenamiento de datos masivos, como discos duros, y ATAPI (Interfaz de paquete de accesorio de tecnología avanzada) también agrega dispositivos como unidades de CD-ROM.
Se definió por primera vez en 1988 utilizando la función obsoleta PIO (Programmed Input Output, Programmed Input and Output) para transmitir datos.
Las distintas versiones de ATA son:
• ATA paralelo o ATA. o ATA2. Admite transferencias rápidas de bloques y DMA de varias palabras. o ATA3. Es el ATA2 revisado. o ATA4. conocido como Ultra-DMA o ATA-33, que admite transferencias a 33 MBps. ya sea ATA5 o ATA/66. Originalmente propuesto por Quantum
para transferencias a 66 MBps. o ATA6 o ATA/100. Velocidades de soporte
100Mbps o ATA/133. Soporte para velocidades de 133 MBps.
Idea 2
Idea 1
Sección
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 75
Serial ATA. Conversión ATA con nuevos conectores (alimentación y datos), cables y fuente de alimentación. Nos referiremos en detalle a continuación.
Los controladores IDE casi siempre se incluyen en la placa base, generalmente dos ranuras para dos dispositivos cada una. De los dos discos duros, uno debe ser esclavo y el otro maestro para que el controlador sepa de qué dispositivo enviar/recibir datos. La configuración se realiza a través de puentes. Normalmente, un disco duro se puede configurar de tres formas: • Como maestro ("maestro"). Si es el único dispositivo con cable, deberías tenerlo
configuración, aunque en ocasiones también funciona si eres esclavo. Si hay otro dispositivo, el otro debe ser un esclavo.
• Como esclavo ("esclavo"). Debe haber otro dispositivo que sea principal. • Selección de cable (selección de cable). El dispositivo será maestro o esclavo dependiendo de ello
posición en el alambre. Si hay otro dispositivo, también debe configurarse como una opción de cable. Si el dispositivo es el único en el cable, debe colocarse en la posición principal. Para distinguir el conector al que se debe conectar el primer bus Ide (Ide 1), se utilizan diferentes colores.
Este diseño (dos dispositivos en un bus) tiene la desventaja de que mientras se accede a un dispositivo, no se puede usar el otro dispositivo en la misma ranura IDE. En algunos conjuntos de chips (Intel FX Triton) ni siquiera podía usar el segundo IDE al mismo tiempo.
Este inconveniente se soluciona en S-ATA y SCSI, que pueden utilizar dos dispositivos por Canal.
Las unidades IDE se usan mucho más que las unidades SCSI debido a su costo mucho más bajo. El rendimiento de IDE es inferior al de SCSI, pero las diferencias son cada vez menores. UDMA hace Bus Mastering en SCSI, lo que reduce la carga de la CPU y aumenta la velocidad, y Serial ATA permite que cada disco duro funcione sin interferir con los demás.
En cualquier caso, aunque SCSI es superior, la alternativa S-ATA empieza a plantearse para los sistemas informáticos de gama alta, ya que su rendimiento no es muy inferior y su diferencia de precio es más ventajosa.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 76
No olvidemos que antes de conectar dos dispositivos por cable (IDE 1 o IDE 2), cuatro en total, debe configurar el hardware maestro y esclavo para que los datos del cable no entren en conflicto.
Todos los discos duros y CD-ROM tienen puentes de configuración en la parte posterior con la placa de configuración correspondiente, ya que varían según el fabricante.
A) CD-ROM B) DVD C) Disco duro D) Cables de datos de 80 conductores. E) IDE 1 (elemental) F) IDE 2 (secundario)
Conexión IDE 1
Dos dispositivos conectados.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 77
Cable de datos de cuero 80:
Los diferentes nombres que usamos para referirnos a ella. Esta interfaz se conoce popularmente como IDE, pero su nombre oficial es ATA (AT Attachment, AT Connection). Los dispositivos que utilizan esta interfaz se denominan IDE (que significa "Electrónica de unidad integrada"), como discos duros IDE, grabadoras de CD y DVD IDE, unidades de CD y DVD IDE, etc. Pero como dije, en estos días es normal referirse tanto a la interfaz como a los dispositivos que la usan como IDE, en lugar de llamar a la interfaz ATA o EIDE y los dispositivos que la usan dispositivos IDE. La confusión no está solo aquí, más adelante aclararé otros términos para que cuando te hablen de esta interfaz por mil nombres diferentes, sepas exactamente lo que significan en cada caso. Las distintas versiones y mejoras por las que ha pasado esta interfaz son las siguientes:
• ATA o ATA-1, en su primera versión, su velocidad máxima era de 8,3 Mbytes/segundo. Solo se permitía conectar discos duros y un máximo de dos.
• ATA-2 y ATA-3, supuestamente hicieron más mejoras en la interfaz, pero no se hicieron populares. Para no complicar las cosas, no entraremos en detalles sobre estas dos mejoras. EIDE, Enhanced IDE es un desarrollo del estándar ATA creado por Western Digital, que incorporó ATA-2, ATAPI y un bus dual para conectar cuatro dispositivos (discos duros, unidades de CD-ROM, etc.). Al incorporar ATA-2, la velocidad aumentó a 16,6 Mbytes/segundo. La incorporación de ATAPI (ATA Packet Interface) permitió la conexión de dispositivos distintos a los discos duros (unidades de CD-ROM, grabadoras, etc.). ATAPI es un protocolo de comunicación necesario para que estos dispositivos utilicen la interfaz ATA y se comuniquen con el resto del sistema. Debido a esta interfaz mejorada, algunas personas la llamaron interfaz IDE/EIDE.
• ATA-4 (a partir de esta versión la interfaz pasó a llamarse ATA/ATAPI y por eso
también conocido como ATA/ATAPI 4), marcó la introducción de la tecnología Ultra Direct Memory Access en la interfaz ATA. Gracias a esta tecnología se atienden las solicitudes de lectura y escritura de los periféricos (disco duro, grabador, lector, etc.). Se introdujeron los modos Ultra DMA 0 (16,7 Mbytes/seg), Ultra DMA 1 (25 Mbytes/seg) y Ultra DMA 2 (33 Mbytes/seg).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 78
MB/segundo). Además, se utilizó un cable más ancho de 80 pines, que usamos hoy. (También conocido como ATA33, Ultra ATA33, Ultra DMA 33, UDMA/33).
• ATA-5 (también conocido como ATA/ATAPI-5), Ultra DMA 3 (44
Mbyte/segundo) y Ultra DMA 4 (66 Mbyte/segundo). (También conocido como ATA66, Ultra ATA66, Ultra DMA 66, UDMA/66).
• ATA-6 (también conocido como ATA/ATAPI-6) introduce, entre otras cosas, mejoras
Ultra DMA 5 que tiene un ancho de banda de 100 Mbytes por segundo. (También conocido como ATA100, Ultra DMA 100, UDMA/100).
• ATA-7 (también conocido como ATA/ATAPI-7), es la última versión de la interfaz y
permite un ancho de banda de 133 Mbyte/segundo. (También conocido como ATA133, Ultra DMA 133, UDMA/133).
Estos son los conectores ATA más utilizados en la actualidad (independientemente de las especificaciones, todavía se denominan interfaz IDE y, para diferenciar entre diferentes ATA, se especifica IDE Ultra DMA 66 para ATA-5 o IDE Ultra DMA 133 para ATA-7, consulte la lista superior de diferentes nombres para evitar confusiones con los diferentes nombres).
La longitud máxima teórica del cable es de 45 cm. y se pueden conectar dos dispositivos (uno debe configurarse como maestro y el otro como esclavo). No es posible conectar dispositivos mientras la computadora está funcionando y transmitiendo información en paralelo. Los métodos más utilizados (no los únicos) para transferir datos a través de la interfaz IDE (ATA/ATAPI) y sus tasas de transferencia máximas son las siguientes: Modo PIO, modo I/O programado: - modo 0, tasa de transferencia máxima 3, 3 MB/micro. - Modo 1, velocidad máxima de transferencia 5,2 MB/s. - Modo 2, velocidad máxima de transferencia 8,3 MB/s. - Modo 3, velocidad máxima de transferencia 11,1 MB/s. - Modo 4, velocidad máxima de transferencia 16,7 MB/s. Ultra DMA, acceso a memoria ultra directo: . - Modo 0, velocidad máxima de transferencia 16,7 MB/s. - Modo 1, velocidad de transferencia máxima 25,0 MB/s. - Modo 2, velocidad máxima de transferencia 33,3 MB/s. - Modo 3, velocidad máxima de transferencia 44,4 MB/s. - Modo 4, velocidad máxima de transferencia 66,7 MB/s. - Modo 5, velocidad máxima de transferencia 100,0 MB/s. - Modo 6, velocidad máxima de transferencia 133 MB/s.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 79
Conectores y tecnología SATA: Serial ATA es el nuevo estándar para conectar discos duros. Hasta hace relativamente poco tiempo, el mercado de consumo utilizaba la interfaz estándar ATA o Parallel ATA, de la que existen variantes de hasta 133 Mbytes/seg. Teóricamente. Esta interfaz consistía en tiras planas a las que se podían conectar hasta dos discos duros (o unidades ópticas). Serial ATA, la nueva tecnología, es totalmente compatible con versiones anteriores, por lo que no habrá problemas con la compatibilidad del sistema operativo. En realidad, puedes encontrar convertidores
En su forma antigua, es cierto que físicamente se acerca más a lo que sería un puerto Firewire o USB, aunque sólo está disponible para conectar dispositivos internos. ¿Cuáles son los beneficios de este nuevo sistema? En términos de velocidad, hay ventajas ya que la nueva interfaz comienza en 150 Mbytes/seg. (133 ATA máximo), pero la mayor mejora respecto al sistema anterior (en mi opinión) es el tipo de cables que se utilizan, mucho más finos y aerodinámicos que el anterior, lo que permite que estos cables, que son muy finos, faciliten el flujo. de aire en el interior de la caja, lo que reduce el calentamiento de nuestros equipos. Otra mejora de este tipo de cable es que permite hasta 1 metro de longitud (medio metro en ATA). En cuanto al cable de alimentación, también es diferente a los discos ATA originales y los voltajes de trabajo son más bajos, por lo que no es necesaria la configuración tradicional "Maestro/Esclavo".
Disco duro y cable IDE
Disco duro y cable SATA
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 80
En los dibujos a continuación puede ver la diferencia en las conexiones, ATA de disco tradicional a la izquierda y ATA serial a la derecha. Los cables de datos IDE fueron reemplazados por cables más delgados, con mejores propiedades, que no obstruyen el flujo de aire dentro del equipo.
Diferencias entre S-ATA (Serial ATA) y P-ATA (Parallel ATA)
Se diferencia del P-ATA porque los conectores de datos y alimentación son diferentes, y el cable es de hilo (7 hilos) en lugar de cinta (40 hilos), lo que mejora la ventilación. Para garantizar la compatibilidad, algunos fabricantes colocan conectores de alimentación P-ATA y S-ATA en las unidades que fabrican.
Los discos duros están conectados de extremo a extremo, un disco duro en cada ranura de tarjeta, a diferencia de P-ATA, donde dos unidades están conectadas a cada ranura IDE.
La razón por la que el cable es en serie es que, debido a que tiene menos cables, produce menos interferencia que si estuviera usando un sistema en paralelo, lo que le permite aumentar las frecuencias de operación mucho más fácilmente.
La relación precio/rendimiento lo convierte en un competidor de SCSI. Aparecen unidades de 10.000 rpm que solo existían en SCSI de gama alta. Esta relación precio/rendimiento lo hace muy adecuado para sistemas de almacenamiento masivo como RAID.
Este nuevo estándar es compatible con el sistema IDE actual. Como sugiere el nombre (Serial ATA) es una conexión en serie como USB o Firewire. La primera versión ofrece velocidades de hasta 150 MB/s, y la segunda generación (SATA 0,3 Gb/s) permite 300 MB/s. Se espera que alcance los 600 MB/s alrededor de 2007.
S-ATA no es solo un cambio de velocidad, sino también de cableado: se ha conseguido un cable más fino y con menos hilos, que funciona a un voltaje más bajo (0,25V frente a 5V para P-ATA) gracias a la tecnología LVDS. También permite cables más largos (hasta 1 metro, a diferencia de P-ATA, que no puede superar los 45 cm.).
Un punto a tener en cuenta es que para instalarlo en un ordenador, la placa base debe tener una ranura S-ATA. S-ATA a diferencia de P-ATA facilita la tecnología NCQ.
SATA (Serial-ATA) combina tecnologías de señal en serie con unidades ATA. Esto es importante porque soluciona muchos problemas que afectan el uso del almacenamiento ATA en sistemas realmente grandes o donde las necesidades de almacenamiento son muy altas. El cable es estrecho y flexible, por lo que
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 81
lo que no afecta a los sistemas de ventilación y puede alcanzar hasta 1 metro de tamaño por lo que los discos ya se pueden colocar fuera del servidor.
Este cable utiliza tecnología de señal de bajo voltaje (Low Voltage) que permite un mayor ancho de banda sin el uso de componentes costosos adicionales. Esta tecnología también elimina la necesidad de usar +5V en fuentes de alimentación cuyo único propósito era suministrar ese voltaje a los variadores.
Además, podemos añadir a las ventajas anteriores que SATA tiene la función de evitar el autobloqueo. Primero, la conexión entre el variador y el controlador es una conexión punto a punto, no una conexión de bus. Para cada dispositivo, solo hay un cable dedicado que lo conecta al controlador. Esto cambiará la forma en que configura y construye porque una topología de punto a punto permite el uso de controladores que pueden exprimir mucho más el rendimiento de las unidades ATA. Por qué; Pues precisamente porque este tipo de arquitectura permite el acceso simultáneo a todos los discos, lo que no es posible en una arquitectura de bus.
La nueva arquitectura, conocida como Serial ATA (SATA), adopta una estructura en capas. El plano de comando es un superconjunto de la antigua arquitectura ATA. por lo que los nuevos dispositivos son compatibles con los protocolos ATA tradicionales y, por lo tanto, compatibles con las aplicaciones existentes. Sin embargo, la capa física es diferente, lo que representa un punto de quiebre en el sentido de que los nuevos dispositivos SATA no son compatibles con los antiguos. Sin embargo, la nueva arquitectura ofrece suficientes mejoras para justificar el cambio.
La idea es que los dispositivos ATA de cualquier tipo (serie o paralelo) compartan un conjunto de instrucciones común y organicen la conexión de estos dispositivos en una estructura donde haya direcciones, sectores y dispositivos específicos. Una organización que recuerda vagamente a Internet en la que se inspira (un dominio ATA contiene un controlador y un dispositivo host SATA).
capas naturales
Cada puerto, divisor, dispositivo o adaptador SATA o SAS ("Serial Attached SCSI") tiene un número de puerto único de 64 bits. Una especie de código de barras MAC o producto con un código NAA de 4 bits. un código de fabricante de 24 bits asignado por el regulador y un código de dispositivo de 36 bits disponible para cada fabricante. La topología SATA es una arquitectura en estrella. Es decir, la conexión del puerto al dispositivo es directa. Por lo tanto, no es un bus donde hay diferentes clientes o hubs ("Hubs") uno al lado del otro. Cada dispositivo utiliza todo el ancho de banda de la conexión sin la sobrecarga inherente de los mecanismos de detección de colisión y arbitraje. El centro de la estrella es un controlador central, integrado en la placa base o insertado como tarjeta en una de sus ranuras, que actúa como puente entre el bus de datos paralelo y el dispositivo SATA. Hay controladores con más de una salida (normalmente 4 u 8) para que se puedan conectar más dispositivos. Como veremos a continuación, también hubo
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 82
multiplicadores de puertos proyectados que permiten subdividir los brazos de la estrella, por así decirlo, para instalar más dispositivos (conceptualmente, actúan como un "Hub"). Además del trabajo de serialización/paralelización de datos, una parte importante del trabajo del controlador está relacionado con los protocolos de conexión y desconexión con los equipos periféricos, que son bastante sofisticados en este tipo de interfaz, ya que la capacidad de conexión se proporciona en caliente ( "hot") ) plugin"). El protocolo de conexión puede reconocer el tipo de dispositivo conectado, detectar si está funcionando correctamente, negociar la velocidad de conexión, etc. La interfaz serial ATA tiene algunas similitudes con la interfaz USB, aunque son mucho más rápidas. de éste y los dispositivos SATA no reciben alimentación del propio bus. La tabla adjunta presenta una panorámica comparativa con las características de las conexiones más comunes.
Modo USB 1 1394a USB 2 1394b SATA-1 SATA-II
Spidshastighed MB/s 1,5 50 60 100 150 300
Velocidad típica MB/s 8 40 45 80 150 300
longitud máxima del cable M. 6,0 4,5 6,0 4,5 1,0 2,0
Cabos
Entre las características más evidentes de esta interfaz destaca la sencillez de los cables de conexión. Mucho más estrecho que los cables paralelos tradicionales. En comparación con el cable SCSI "P" de 68 conductores, SATA es mucho más manejable y fácil de instalar. Esto tiene la ventaja de simplificar las conexiones y facilitar la ventilación en el marco. Como se muestra en el diagrama, el cable de señal serial ATA contiene solo cuatro conductores agrupados en dos pares. Opcionalmente, pueden incluir conductores de pantalla y drenaje conectados a las conexiones a tierra.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 83
Los conductores suelen ser de 26 a 30 AWG. La primera versión del estándar, que solo cubría las unidades interiores, especificaba un cable de conexión de 1 m. Luego se especificó un cable de 2 m. Suficiente para ensamblar una computadora de torre sentada en el piso, con una unidad externa, tal vez sentada sobre la mesa.
conexiones
Los dispositivos SATA tienen dos tipos de cables de conexión, señal y alimentación. La forma exacta depende de la posición relativa del dispositivo al controlador central. En este sentido, existen tres posibilidades:
• Dispositivo interior conectado directamente al controlador central mediante conectores como el de la Figura 2.
• Dispositivo interior conectado a una salida del controlador central mediante cables de alimentación y señal.
• Dispositivo externo conectado al controlador central a través de un cable de señal. En tales casos, el dispositivo suele tener su propia fuente de alimentación.
• La figura muestra el aspecto de los conectores SATA para la conexión directa del dispositivo interno al controlador principal. Se puede ver que el conector SATA estándar tiene dos zonas, aquí se llaman secciones. uno para señal y otro para volumen ("sección de señal" y "sección de efectos"). La banda de señal tiene 7 contactos (S1-S7) correspondientes a igual número de conductores, tres de los cuales están puestos a tierra, quedando 2 pares para datos.
Nomenclatura: HT+, HT-. Par de señales de transmisión diferencial del lado del host ("Transmisor del host"). HR+, HR- Lo mismo para la recepción ("Receptor anfitrión"). Par de señales de transmisión diferencial DT+ y DT- en el lado del dispositivo ("Transmisor del dispositivo"). DR+, DR-. Lo mismo se aplica al recibo ("Destinatario de la Unidad"). G. Tierra ("Tierra").
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 84
Como era de esperar, las señales de transmisión del adaptador host coinciden con las señales de recepción del dispositivo y viceversa. La parte de potencia tiene 15 contactos (P1-P15) divididos en 5 zonas de tres conductores cada una según la tabla 3. El grupo 1 es de 3,3 V. El grupo 3 es de 5,0 V. y el grupo 5, de 12,0 V. Los grupos intermedios (2 y 4 ) son conexiones a tierra auxiliares. Nomenclatura: G. Tierra ("Tierra"). V33 Alimentación 3,3 V V33pc Igual que precarga de 5,0 V V5 Alimentación 5,0 V V5pc Igual que precarga de 5,0 V V12 Alimentación 12,0 V V12pc Igual que precarga de 12,0 V
nombre de alfiler
S1G.
S2 HT+ / DR+
S3 HT-/DR-
S4G.
S5 FC+ / DT+
S6 HR- / DT-
S7G
nombre de alfiler
P1 V33
P2 V33
P3 V33 serie
P4G
P5G
P6G
P7 V5 piezas
P8 V5
P9 V5
P10G.
P11 se llevó a cabo [9]
P12G.
P13 V12 piezas
P14 V12
P15 V12
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 85
Parece que los cables de alimentación de 3,3, 5,0 y 12,0 V están duplicados. Para cada voltaje hay dos interruptores. una fuente de alimentación normal. El otro, llamado "precarga", es para proporcionar energía para la carga inicial del circuito controlador de E/S correspondiente. Cada fuente de alimentación debe suministrar las corrientes especificadas en la tabla.
Enchufe la resistencia actual
Foroplatning 3,3 V. Pico 0,75 A. 4,4 Ohm.
Suministrar 3,3 V. Mantener a 0,75 A.
Foroplatning 5 V. Pico 4,5 A. 1 Ohm.
Suministrar 5 V. Mantener a 10 A.
12 V para revestimiento. 2,4 A pico. 5 ohmios
Alimentación 12 V. Continua 1 A.
Como se mencionó anteriormente, otra característica de los dispositivos SATA (relacionada con lo mencionado en la sección anterior) es la capacidad de conexión en caliente. Para mitigar los transitorios y facilitar los protocolos de inicio, las pestañas de algunos conmutadores son más grandes que otras. Así, en los procedimientos de conexión, estas patas se conectan antes que las demás. Al mismo tiempo, los pines más largos en los procesos de desconexión son los últimos en perder contacto. Las diferentes longitudes de contacto en el lado del controlador y del dispositivo permiten que el proceso de conexión se realice en tres pasos:
1. Las tomas de tierra P4 y P12, que son los enchufes más grandes, están conectadas. Se equilibran los potenciales y se neutralizan las posibles descargas estáticas.
2. Las conexiones a tierra restantes P5, P6 y P10 están conectadas y los voltajes de salida P3, P7 y P13 están conectados. Los circuitos de control están listos para usar.
3. Finalmente, conecte las señales de alimentación P1, P2, P8, P9, P14 y P15. Pin P11 y pin de señal enlazados.
Vale la pena señalar que el estándar utiliza diferentes tipos de enchufes para conexiones externas e internas. Por ejemplo, los conectores de la Figura 4 son diferentes en el exterior de lo que serían en el interior del marco. Los conectores interiores se conocen como tipo L por su perfil, mientras que los exteriores tienen una carcasa metálica conectada a tierra para protegerlos de interferencias electromagnéticas y tienen la forma que se muestra en la figura.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 86
También vale la pena señalar que para facilitar la transición, algunos dispositivos SATA tienen un conector de alimentación dual, lo que les permite usar el conector de alimentación SATA o el conector de alimentación P4 tradicional.
La figura muestra la disposición de pines de dos dispositivos SATA con factor de forma de 2,5" y 3,5" (estos son factores de forma de unidad portátil y de escritorio, respectivamente). La figura muestra el pinout típico de un dispositivo IDE/ATA correspondiente.
Los dispositivos SATA están diseñados para conectarse directamente en estrella. Sin ningún tipo de cadena serial ni "Jumpers" o interruptores de configuración (realizados por software). Quiero puntualizar esto porque el otro día (junio de 2005) acudí a mi proveedor habitual para comprar un disco SATA de 3,5" 300GB que pretendo utilizar como repuesto y "Backup" para los ordenadores con los que trabajo habitualmente. puede ver en la Figura 7 (sin PTO P4), esta unidad Seagate Barracuda tiene otro conector auxiliar pequeño con 4 pines. Para mi sorpresa, cuando lo investigué, el vendedor me aseguró muy seriamente que estos pines, aunque son seriales ATA se usó para conectar la unidad como un estilo ATA/IDE primario/secundario, lo encontré muy extraño y en contra de lo que se conoce, sin embargo, se necesitaba una ranura adicional para hacer funcionar un pequeño ventilador de refrigeración en la "casa" donde estaba tenía la intención de instalar la unidad y pensó que tal vez lo era. La respuesta al misterio es que estos son pines "solo para uso de fábrica" que no están destinados a ser tocados. Los módulos ejecutan los comandos en el mismo orden recibido del módulo de control. Sin embargo, desde hace tiempo se sabe que esta forma no es la más eficiente y que es posible reorganizar los comandos para lograr un mejor rendimiento. La reorganización tiene por objeto minimizar el movimiento de los cabezales de lectura/escritura. Movimientos que son los principales responsables del retraso de los procesos de E/S del disco. La primera versión del estándar SATA no incluía estas características, aunque la tecnología SCSI la utilizó durante más de una década, lo que explica en parte el rendimiento superior de estos dispositivos en comparación con los IDE/ATA tradicionales. Finalmente el equipo
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 87
trabajando en el estándar SATA II decidió incluir esta característica en la nueva especificación. El sistema se conoce como NCQ ("Native Command Queing") y permite que un dispositivo SATA (disco) reciba un conjunto de comandos y los reordene para obtener el máximo rendimiento. Multiplicadores de puertos Los multiplicadores de puertos son dispositivos de hardware que permiten conectar múltiples dispositivos a un solo puerto SATA, evitando así la limitación de 1 puerto = 1 dispositivo impuesta por la topología en estrella. Presentados por primera vez en febrero de 2003, permiten conectar hasta 16 dispositivos a cada puerto del adaptador de host.
El multiplicador es transparente para los controladores y los propios dispositivos, que no tienen idea de que están usando un solo puerto en el controlador.
Conmutadores de puerto Estos son dispositivos de hardware que permiten conectar dos adaptadores de host SATA a un dispositivo físico (disco) o su sistema. Solo uno de los adaptadores está activo en cualquier momento, la elección la realiza el software. Tienen la ventaja de que el adaptador host ya no es un dispositivo crítico en el sistema (se puede duplicar). También le permite diseñar sistemas de equilibrio de carga en los que se pueden usar dos computadoras para acceder al mismo dispositivo. Los esfuerzos evolutivos en la arquitectura serial ATA comenzaron en 2001. Aquí hay una descripción general de su corta historia (hasta ahora).
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 88
En 2003, los primeros dispositivos SATA comenzaron a aparecer en el sector de la informática de consumo. En 2005 es normal que las placas base incluyan por defecto dos ranuras PCI (una de ellas AGP) y 4 ranuras ATA (2 x ATA/133 + 2 x SATA/150. Estas últimas con capacidades RAID 0 y 1. - fabricantes de placas base Las placas incluyen un cable de datos SATA para conectar un dispositivo y un adaptador para un cable de alimentación, ya que las fuentes de alimentación que no tienen salidas específicas para dispositivos SATA internos todavía se instalan en dos pares blindados que se proporcionan con una impedancia de 100 Ohm.
Descripción del nombre del pin
1 tierra tierra
2 A+ Transmisión +
3 A- Transmisión -
4 tierra tierra
5 B- Receptáculo -
6 B+ Receptáculo +
7 tierra tierra
comentario tipico
SATA I En agosto de 2001 se publicó la versión 1.0 del estándar. Se muestra el primer producto comercialmente disponible que actúa como puente entre el bus paralelo PCI y un dispositivo ATA serie. La primera versión del estándar estaba destinada solo para uso interno (dentro de la computadora). Los cables deben tener un máximo de 1 m y no se ha establecido ninguna especificación para cables o enchufes externos. Además, el estándar aborda únicamente los dispositivos de almacenamiento. Por lo tanto, cámaras, escáneres, impresoras, etc. de ninguna manera.
SATA II En 2002, se anunciaron los primeros controladores host SATA de 4 y 8 puertos disponibles en el mercado. En octubre de este año se publicará la versión II del estándar SATA. También se muestran dispositivos auxiliares como multiplicadores y selectores de puerta. Otras mejoras incluyen la cola de comandos NCQ.
En agosto de 2003, se anunciaron los primeros controladores de host SATA-II disponibles comercialmente con una velocidad de transferencia de 3 Gbit/s. A partir de esta fecha, los controladores de host funcionan a 1,5 y 3 Gbits/seg.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 89
Memoria ROMBIOS:
BIOS (Basic Input Output System, sistema básico de entrada/salida) es una memoria ROM, EEPROM o FLASH-Ram que contiene las rutinas de nivel inferior (programas de control básicos) que permiten que la computadora arranque, controle el teclado, el disco y el disquete. la unidad puede transferir el control al sistema operativo. Además, la BIOS se apoya en otra memoria, la CMOS (llamada así porque suele estar fabricada con esta tecnología complementaria de semiconductores de óxido metálico), que almacena todos los datos de configuración estándar del ordenador, como los discos duros que tengamos instalados. , número de cabezales, cilindros, número y tipo de volúmenes, fecha, hora, etc., además de otros parámetros necesarios para el correcto funcionamiento del ordenador. Esta memoria está constantemente alimentada por una batería, por lo que cuando apagamos el ordenador no se pierden todos los datos que nuestro ordenador necesita para funcionar. Ahora, todas las placas base generalmente vienen con una batería de tipo botón que dura entre 4 y 5 años (aunque esto puede variar mucho) y es muy fácil de reemplazar.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 90
reemplazar. En el pasado, las placas tenían una batería real pegada a la placa base, lo que dificultaba mucho el reemplazo, además de otros problemas como fugas de batería y fugas de batería y PCB. Además, la BIOS contiene el programa de configuración, es decir, los menús y pantallas que aparecen cuando accedemos a los parámetros del sistema pulsando una serie de teclas durante el proceso de arranque de la máquina. En un principio, los RomBios se hacían en un paquete DIPP y perduró durante mucho tiempo este modelo llamado EPROM y EEPROM, actualmente reemplazado por el paquete PLC. Programas internos: POST: significa Power On Self Test, prueba cuando la computadora está encendida. Es un proceso de verificación e inicialización de los elementos de entrada y salida de un sistema que se encarga de configurar y diagnosticar el estado del hardware, concretamente denominado Core Hardware (teclado, microprocesador, memoria RAM, vídeo y el correcto funcionamiento de la placa base). estos componentes funcionan correctamente, emite un BIP a través del parlante, si uno de ellos falla, emite varios sonidos, de los cuales hay una tabla de códigos del fabricante.
TABLAS DE BÚSQUEDA:
CODIFICADOR BIP BIOS AMI
Descripciones de códigos de pitidos 1 Error de actualización de DRAM a corto plazo 2 Error de paridad a corto plazo 3 Error de base de RAM de 64 K a corto plazo 4 Error de temporizador de sistema a corto 5 Error de proceso a corto 6 Error de puerta A20 del controlador de teclado a corto 7 Error de excepción de modo virtual a corto 8 Fallo de prueba/visualización de lectura a corto 9 Error de suma Control a corto plazo de la ROM del BIOS 10 Error de lectura/escritura a corto plazo de CMOS 11 Error de memoria caché corto 1 largo, 3 cortos Error de memoria convencional/extendida 1 largo, 8 cortos Error de prueba de pantalla/reciclaje
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 91
CÓDIGOS DE BIOS DE BIP DE PREMIO
Descripción del código de pitido
1 largo, 2 cortos Indica que se ha producido un error de video y el BIOS no puede preparar el monitor de video para mostrar información adicional
Cualquier otro pitido
Problema de RAM.
BIOS de IBM
Código de pitido Descripción Sin pitido Sin alimentación, circuito suelto o cortocircuito. 1 pitido corto POST normal, computadora ok. 2 Pitido corto Error de POST, busque en la pantalla el código de error. Pitido continuo Sin energía, circuito suelto o cortocircuito. Pitidos cortos repetidos Sin energía, circuito suelto o cortocircuito. Problema de la placa base con un pitido largo y un pitido corto. Problema de video con un pitido largo y dos pitidos cortos (circuito de monitor Mono/CGA). Un pitido largo y tres pitidos cortos. Circuito de visualización de vídeo (EGA). Teclado/error de teclado con tres pitidos largos. Un pitido, pantalla en blanco o incorrecta
Circuito de visualización de vídeo.
TONO DE INICIO DE MACINTOSH
ERROR TONOS Tono de error. (dos conjuntos de tonos diferentes) Problema de placa lógica o bus SCSI. Sonido de arranque, arranque de la unidad, sin problemas con el controlador de video. Encendido, sin tono. Problema de la placa lógica. Nota alta, cuatro notas más altas. Problema de SIM.
PHOENIX BIOS BEEP-CODER
Código Pitido Descripción / Qué comprobar 1-1-1-3 Compruebe la situación actual. 1-1-2-1 Obtenga el tipo de CPU. 1-1-2-3 Inicie el hardware del sistema. 1-1-3-1 Inicialice los registros del conjunto de chips con los valores POST iniciales. 1-1-3-2 Especificado en el indicador POST. 1-1-3-3 Inicializa los registros de la CPU. 1-1-4-1 Inicialice la memoria caché a los valores POST iniciales. 1-1-4-3 Inicializar E/S. 1-2-1-1 Iniciar administración de energía. 1-2-1-2 Cargar registros alternativos con valores POST iniciales. 1-2-1-3 Ir a UserPatch0. 1-2-2-1 Inicie el controlador de teclado. 1-2-2-3 Suma de verificación de la ROM del BIOS. Inicializar temporizador 1-2-3-1 8254. 1-2-3-3 8237 Inicializar controlador DMA.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 92
1-2-4-1 Restablecer el controlador de interrupción programable. 1-3-1-1 Pruebe la actualización de DRAM. 1-3-1-3 Pruebe el controlador de teclado 8742. 1-3-2-1 Establezca la sección ES en registro de 4 GB. 1-3-3-1 28 Escalado automático de DRAM. 1-3-3-3 Listo RAM base 512K. 1-3-4-1 Prueba 512 líneas de direcciones básicas. 1-3-4-3 Probar la memoria central de 512 K 1-4-1-3 Probar la frecuencia del reloj del bus de la CPU. 1-4-2-4 Reinicie el conjunto de chips. 1-4-3-1 ROM del BIOS del sistema Shadow. 1-4-3-2 Restablece el caché. 1-4-3-3 Caché de tamaño automático. 1-4-4-1 Configuración de registros avanzados de chipset. 1-4-4-2 Cargar registros alternativos con valores CMOS. 2-1-1-1 Configure la velocidad inicial de la CPU. 2-1-1-3 Inicialización de vectores de interrupción. 2-1-2-1 Iniciar interrupciones del BIOS. 2-1-2-3 Verifique el aviso de derechos de autor de la ROM. 2-1-2-4 Inicie el administrador de opciones de ROM PCI. 2-1-3-1 Verifique la configuración de video contra CMOS. 2-1-3-2 Inicialice el bus PCI y los dispositivos. 2-1-3-3 Inicie todos los adaptadores de video en el sistema. 2-1-4-1 ROM de BIOS de vídeo de sombra. 2-1-4-3 Mostrar aviso de derechos de autor. 2-2-1-1 Muestra el tipo y la velocidad de la CPU. 2-2-1-3 Pruebe el teclado. 2-2-2-1 Establecer clic de tecla si está habilitado. 2-2-2-3 56 Activa el teclado. 2-2-3-1 Prueba de interrupciones inesperadas. 2-2-3-3 Muestra el mensaje "Presione F2 para ingresar a CONFIGURACIÓN". 2-2-4-1 Pruebe RAM entre 512 y 640k. 2-3-1-1 Verifique la memoria extendida. 2-3-1-3 Probar líneas de dirección de memoria extendida. 2-3-2-1 Ir a UserPatch1. 2-3-2-3 Configuración de entradas de caché complejas. 2-3-3-1 Habilite la caché externa y la memoria de la CPU. 2-3-3-3 Muestra el tamaño de la caché externa. 2-3-4-1 Mostrar mensaje oculto. 2-3-4-3 Mostrar piezas no desechables. 2-4-1-1 Mostrar mensajes de error. 2-4-1-3 Compruebe si hay errores de configuración. 2-4-2-1 Pruebe el reloj de tiempo real. 2-4-2-3 Comprobación de errores del teclado 2-4-4-1 Configuración de vectores de interrupción de hardware. 2-4-4-3 Compruebe el coprocesador si está presente. 3-1-1-1 Desactive los puertos de E/S integrados. 3-1-1-3 Ubique e instale puertos RS232 externos. 3-1-2-1 Ubique e instale puertos paralelos externos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 93
3-1-2-3 Restablezca los puertos de E/S integrados. 3-1-3-1 Arranque en el área de datos del BIOS. 3-1-3-3 Inicie el área de datos extendida del BIOS. 3-1-4-1 Inicie el controlador de disquetes. 3-2-1-1 Inicie el controlador de disco duro. 3-2-1-2 Inicie el controlador de disco duro del bus local. 3-2-1-3 Vaya a UserPatch2. 3-2-2-1 Deshabilitar la barra de direcciones A20. 3-2-2-3 Limpie el enorme archivo de segmento ES. 3-2-3-1 Búsqueda de ROM opcionales. ROM de opción de sombra 3-2-3-3. 3-2-4-1 Configuración de administración de energía. 3-2-4-3 Habilitación de interrupciones de hardware. 3-3-1-1 Configure la hora del día. 3-3-1-3 Compruebe el bloqueo de teclas. 3-3-3-1 Elimine el indicador F2. 3-3-3-3 Busque las pulsaciones de teclas F2. 3-3-4-1 Ingrese a CONFIGURACIÓN. 3-3-4-3 Borre la bandera en POST. 3-4-1-1 Comprobar si hay errores 3-4-1-3 POST completado: prepárese para iniciar el sistema operativo. 3-4-2-1 Un pitido. 3-4-2-3 Comprobar la contraseña (opcional). 3-4-3-1 Eliminar tabla de descripción global. 3-4-4-1 Fichas de paridad borradas. 3-4-4-3 Borrar pantalla (opcional). 3-4-4-4 Verifique las copias de seguridad y los recordatorios de virus. 4-1-1-1 Intento de inicializar con INT 19. 4-2-1-1 Error de manejo de interrupción. 4-2-1-3 Error de parada desconocido. 4-2-2-1 Error de interrupción pendiente. 4-2-2-3 Error de ROM de opción de arranque. 4-2-3-1 Error de apagado. 4-2-3-3 Movimiento de bloque extendido. 4-2-4-1 Error de apagado 10. 4-3-1-3 Arranque el conjunto de chips. 4-3-1-4 Inicializar contador de actualización. 4-3-2-1 Compruebe si hay flash forzado. 4-3-2-2 Comprobar el estado del HW de la ROM. 4-3-2-3 La ROM del BIOS está bien. 4-3-2-4 Realice una prueba de RAM completa. 4-3-3-1 Realice la inicialización del OEM. 4-3-3-2 Controlador de interrupción de arranque. 4-3-3-3 Lea el código de arranque. 4-3-3-4 Inicializar todos los vectores. 4-3-4-1 Inicie el programa Flash. 4-3-4-2 Inicie el dispositivo de inicio. 4-3-4-3 El código de inicialización se leyó correctamente.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 94
BIOS:
El Sistema Básico de Entrada-Salida, este programa instruye al microprocesador para poder interpretar las instrucciones del sistema para comunicarse con el resto del hardware. El BIOS generalmente se escribe en lenguaje ensamblador. El término BIOS apareció por primera vez en el sistema operativo CP/M y describía la parte de CP/M que se ejecutaba en el arranque y se conectaba directamente al hardware (las máquinas CP/M normalmente tenían un cargador de arranque simple en la ROM y nada más). La mayoría de las versiones de MS-DOS tienen un archivo llamado "IBMBIO.COM" o "DOSE" que es análogo al BIOS de CP/M.
En los primeros sistemas operativos de computadora (como DOS), el BIOS todavía estaba activo después de que se inició el sistema operativo. Se accedía a dispositivos como el disquete y el disco duro a través del BIOS. Sin embargo, la mayoría de los sistemas operativos modernos realizan estas tareas por sí mismos sin necesidad de llamar a las rutinas del BIOS.
Cuando se enciende la computadora, el BIOS se carga automáticamente en la memoria principal y el procesador lo ejecuta desde allí (aunque en algunos casos el procesador ejecuta el BIOS leyéndolo directamente desde la ROM que lo contiene) cuando realiza comprobaciones de rutina e inicialización. en la computadora a través de un proceso llamado POST (Power On Séla Test). Al final de esta fase, busca el código de inicialización del sistema operativo en uno de los dispositivos de memoria secundaria existentes, lo carga en la memoria y le transfiere el control de la computadora.
Se puede resumir diciendo que la BIOS es el firmware que se encuentra en la PC IBM y compatibles que contiene las instrucciones más básicas para su funcionamiento ya que contiene rutinas básicas para controlar los dispositivos de entrada y salida. Se almacena en un chip de memoria ROM o Flash ubicado en la placa base de la computadora. Este chip a menudo se denomina "BIOS" en las mujeres porque se refiere a una memoria específica (femenina). aunque nos referimos a los contenidos, es correcto hacerlo en "BIOS" macho ya que nos estamos refiriendo al sistema I/O (macho).
CREAR:
LA CONFIGURACIÓN". Así se llama el programa que nos da acceso a los datos del CMOS y por eso también se le llama CMOS-SETUP. Este programa se suele activar pulsando determinadas teclas al arrancar el ordenador, Teclas Borrar, Borrar, etc. Usamos este programa para consultar y/o cambiar información CMOS (cuántos discos duros y qué propiedades, fecha y hora, secuencia de arranque, etc.) Lógicamente, este programa SETUP está "archivado" (almacenado) en algún lugar dentro de la computadora y debería funcionar incluso cuando no hay disco duro o cuando el disco duro aún no se reconoce: Configuración
Vista del chip sin la tapa de plástico y la etiqueta que lo cubre.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 95
Se almacena dentro de la ROM-BIOS y se alimenta con una batería, por lo que los datos permanecen almacenados incluso cuando el equipo está apagado.
Pantallas de CONFIGURACIÓN:
En las siguientes capturas de pantalla que verá a continuación, puede ver los diversos elementos en el menú principal de CONFIGURACIÓN.
SUSTANCIA PRINCIPAL:
Al encender la computadora. Presione Eliminar, Eliminar, F1, F10, F3, etc. para entrar en Configuración. Estas opciones dependen del fabricante del BIOS.
ROM PCI/ISA BIOS (2A59IS2B) UTILIDAD DE CONFIGURACIÓN CMOS
PRIS SOFTWARE, INC.
¡¡ MENÚ SOFT DA CPU !!
CONFIGURACIÓN CMOS PREDETERMINADA
CONFIGURACIÓN DE FUNCIONES DEL BIOS
CONFIGURACIÓN DE RECURSOS DE CHIPET
CONFIGURACIÓN DE GESTIÓN DE ENERGÍA
CONFIGURACIÓN PNP/PCI
DISPOSITIVOS PERIFÉRICOS INTEGRADOS
CARGA LAS CONFIGURACIONES POR DEFECTO
CONFIGURACIÓN DE CÓDIGO
DETECCIÓN DE DISCO DURO IDE
CONFIGURACIÓN GUARDAR Y SALIR
SALIR SIN GUARDAR
Esc: Salir F10: Guardar y salir de la configuración
: Seleccione el elemento (Shift) F2 : Cambiar color
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 96
CONFIGURACIÓN DE UCP:
ROM PCI/ISA BIOS (2A59IS2B) ¡¡ MENÚ SOFT CPU !!
PRIS SOFTWARE, INC.
El nombre de la CPU es: AMD K6-2 3D NOW
Velocidad de funcionamiento de la CPU: Personalizado - Frecuencia turbo: Deshabilitado - Ext. Reloj (PCI): 100 Mhz (1/3) - Factor multiplicador: x5.5 - AGPCLK/CPUCLK: 2/3 - Latencia de caché L2: Estándar - Retención de error de velocidad: Habilitado
Potencia de CPU: Estándar de CPU - Voltaje de núcleo: 2.00v
Esc: Salir F1: Ayuda F5: Valores antiguos F7: Cargar valores predeterminados de configuración
: Seleccionar punto PU/PD/+/- : Cambiar (Shift)F2 : Cor
En esta pantalla estableceremos valores relacionados con el funcionamiento de la CPU.
Velocidad de funcionamiento de la CPU: En "Definido por el usuario" comprobaremos todos los parámetros relacionados con el procesador. También podemos elegir la velocidad directamente, aunque las opciones de abajo no están activas en este caso.
Frecuencia Turbo: Le permite forzar la velocidad del reloj externo a 2.5x. En principio, existe solo para realizar un control de calidad y verificar que un sistema funciona correctamente más allá de sus especificaciones.
ext. Reloj (PCI): Indica la velocidad del bus externo. Entre paréntesis está la relación con la que trabajará nuestro bus PCI.
Factor de multiplicación: Establece el factor de multiplicación. Por ejemplo, con un Pentium III 550 Mhz obtendremos la frecuencia multiplicando el bus por el factor multiplicador.
AGPCLK/CPUCLK: Indica la relación entre la velocidad del bus AGP y la del "microprocesador". Con una CPU de bus de 66Mhz debería ser 1/1, con una CPU de 100Mhz el valor debería ser 2/3.
Latencia de caché L2: ajusta la velocidad de la memoria caché integrada en el segundo nivel del microprocesador. Cuanto mayor sea el valor, más rápido funcionará la memoria. El exceso de velocidad puede provocar un choque.
Speed Error Hold: Este campo hace referencia al comportamiento que tendrá la máquina si elegimos una velocidad incorrecta.
Fuente de alimentación de la CPU: Le permite ajustar el voltaje del microprocesador. Siempre debe establecerse en "CPU Default" ya que un voltaje incorrecto causará errores y problemas.
Core Voltage: Indica el voltaje actual del procesador y permite cambios.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 97
ESTANDARIZACIÓN:
ROM PCI/ISA BIOS (2A59IS2B) SOFTWARE DE PREMIO DE CONFIGURACIÓN CMOS ESTÁNDAR, INC.
Fecha (mm:dd:aa): viernes, 30 de junio de 2000 Hora (hh:mm:dd): 23:27:47
IDE (HD)
: TIPO
PRE-CORRECCIÓN CABEZA TAMAÑO MODO SECTOR LANDZ
Maestro Maestro: Usuario 3224 781 128 0 6252 63 LBA Maestro Esclavo: Auto 0 0 0 0 0 0 Secundario LBA Maestro: Ninguno 0 0 0 0 0 0 -
Esclavo secundario: Ninguno 0 0 0 0 0 0 -
Unidad A: 1,44, 3,5 pulgadas. Unidad B: Ninguno Compatibilidad con modo de disquete 3: Deshabilitado
Video: EGA/VGA Hold: todo menos el teclado
base
Memoria: Memoria extendida:
Otro recuerdo:
640K
130048K
384K
Total
Memoria: 131072K
Esc: Salir F10: Guardar y salir de la configuración
: Seleccione el elemento (Shift) F2 : Cambiar color
PU/PD/+/-: Cambiar
En esta pantalla podemos configurar la fecha y la hora, los parámetros del disco duro, los tipos de volumen, comprobar la memoria... Usaremos Av Page
Re Pag para moverse entre los diferentes precios.
Fecha y Hora: En este apartado podemos cambiar los datos relacionados con la fecha y hora de la BIOS. Discos duros IDE: Aquí configuramos los diferentes discos duros conectados al controlador IDE de nuestra placa base. Es importante tener esto en cuenta para no caer en la trampa de intentar configurar discos duros SCSI o IDE conectados a un controlador adicional desde aquí. Encontramos muchos valores como "Type", "Cyls" y otros. La opción "Tipo" ofrece los valores "Auto", "Usuario" o "Ninguno". Con el primero, podremos registrar automáticamente cada disco cada vez que encendemos el ordenador. Esta es la configuración predeterminada, aunque ralentiza un poco el proceso de arranque.
Fondo Ludovico Rutten
- Curso de montaje de computadoras y redes 98
Por otro lado, "Usuario" se utiliza cuando queremos introducir nosotros mismos cada uno de los valores de configuración, o pasamos por la opción DETECCIÓN DE DISCO DURO IDE, que tras encontrar nuestros discos habrá guardado su configuración en esta pantalla. . . En este modo, el arranque será más rápido. Finalmente, "Ninguno" indicará que no hay disco duro. En cuanto al "Modo", podemos elegir entre los modos "LBA", "Normal" y "Grande", aunque la elección correcta para los discos actuales es LBA. Disquete: Aquí podremos elegir el tipo de disquetera instalada en nuestro ordenador. Compatibilidad con el modo de disquete 3: esta es una opción para habilitar si tiene unidades de disquete que pueden usar discos de 1,2 Kbytes (comúnmente utilizados en Japón). La tarjeta gráfica: Debemos elegir VGA para todos los equipos actuales. Stop On: Se utilizará si queremos que la BIOS ignore algunos errores. Sus opciones son "Sin error", para no detectar errores. "Todos los errores" para detener. "Todo excepto el teclado" excepto el teclado. "Todo menos disquete" para evitar las unidades de disquete. y "Todo excepto bandeja/teclas", para que no respondan a la bandeja o al teclado. Memoria: Es un pequeño resumen informativo de la cantidad y tipo de memoria instalada en nuestro sistema.
Por el momento las pilas son tipo redondas (2032) a 3 voltios, dependiendo de la marca estas pilas pueden durar hasta diez años por lo que es necesario cambiarlas, suele haber una marca de pila baja en la pantalla o en el peor de los casos notaremos ¿Cuándo está fechada la computadora? No ajusta bien.
ROMA
JERSEY SAV 2032
CLEAR-CMOS
modelos de batería
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 99
CONFIGURAR LAS CARACTERÍSTICAS DEL BIOS:
CONFIGURACIÓN DE CARACTERÍSTICAS DEL BIOS PCI/ISA BIOS ROM (2A59IS2B)
PRIS SOFTWARE, INC.
En esta pantalla ajustaremos la configuración del BIOS y el proceso de arranque
Advertencia de virus CPU Nivel 1 Caché de CPU Nivel 2 Caché de CPU Caché L2 ECC Inicio rápido Autocomprobación Escaneo Secuencia de arranque Secuencia de arranque EXT Significado Intercambiar disquete Arranque Activar búsqueda de disquete Arranque NumLock Estado IDE Bloqueo de disco duro Modo Tipo Configuración de velocidad Tasa tipográfica (caracteres) Retraso (Mseg) Paleta de opciones de seguridad PCI/VGA Snoop OS Seleccione para DRAM > 64 MB Sin referencia FDD para número de procesador Modo IDE Latencia inicial (seg) WIN 95
Shadow Video BIOS C8000-CBFFF Shadow CC000-CFFFF Shadow D0000-D3FFF Shadow D4000-D7FFF Shadow D8000-DBFFF Shadow DC000-DFFFF
: Deshabilitado : Habilitado : Habilitado : Habilitado : Habilitado : A,C,EXT : SCSI : Deshabilitado : Deshabilitado : Habilitado : Habilitado : Habilitado : 30 : 250 : Configuración : Deshabilitado : No OS2 : No:
: Habilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado
Advertencia de virus: cuando se establece en "Habilitado", genera un mensaje de advertencia si un programa intenta escribir en el sector de arranque del disco duro. Sin embargo, debe deshabilitarlo para instalar Windows 95/98, de lo contrario, el instalador no podrá instalar los archivos de arranque.
Caché de nivel 1 de la CPU: activa o desactiva la caché de primer nivel integrada en el núcleo de los procesadores actuales. Si por casualidad lo desactivamos, veremos como el rendimiento de nuestro equipo baja notablemente. Recomendamos encarecidamente habilitarlo.
CPU Nivel 2 Cache: Lo mismo que en el caso anterior, pero se refiere al segundo nivel de memoria caché. Asimismo, la configuración debe estar habilitada para un rendimiento óptimo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 100
ECC Cache CPU L2 Verification: Comenzando con algunos dispositivos Pentium II 300Mhz, se comenzó a incorporar un caché de segundo nivel en un sistema ECC para la corrección y verificación de errores. Esto proporciona más seguridad a la hora de trabajar con datos sensibles, aunque reduce los beneficios. Si esta opción está configurada en "Activado", habilitamos esta función.
Verificación automática de inicio rápido: le permite omitir ciertas pruebas realizadas al inicio, lo que resulta en un inicio más rápido. Lo más seguro sería establecerlo en "Habilitado".
Boot Sequence: especifica el orden de búsqueda de unidades en el que se inicia el sistema operativo. Podemos especificar múltiples opciones para que la primera (las situadas más a la izquierda) sea siempre la primera marcada. Si no hubiera un dispositivo de "arranque", iría a la configuración media y así sucesivamente. Dado que es normal arrancar siempre desde un disco duro, deberíamos poner la unidad C como la primera unidad.
Boot Sequence EXT significa: Desde aquí le decimos a la BIOS a qué se refiere el parámetro "EXT" que encontramos en la opción anterior. En este sentido, podemos especificar un disco SCSI o un dispositivo LS-120. Esta opción no se encuentra a menudo, ya que las unidades se incluyen directamente en el parámetro anterior.
Swap Floppy Drive: Muy útil si disponemos de 2 disquetes. Nos permiten intercambiar A por B y viceversa.
Boot Up Floppy Seek: esta opción le permite probar la unidad de disquete durante el proceso de arranque. En las disqueteras más antiguas de 5,25 pulgadas era necesario detectar la existencia de 40 u 80 pistas. El de 3,5 pulgadas tiene poco uso, así que lo dejamos "Deshabilitado" para ahorrar tiempo.
Estado de Boot Up NumLock: cuando está "ON", el BIOS habilita automáticamente la tecla "NumLock" en el teclado numérico durante el proceso de arranque.
IDE HDD Block Mode: activa el modo de comando de lectura/escritura multisector. La gran mayoría de los módulos actuales admiten la función de transferencia en bloques, por lo que debe estar habilitada.
Ajuste de velocidad estándar: si está activo, a través de los valores que veremos a continuación, podemos ajustar los parámetros de retardo y repetición de nuestro teclado.
Velocidad típica (caracteres/seg): Esto indicará cuántas veces se repetirá la pulsación de tecla por segundo.
Retardo tipomático (Msec): Nos indicará el tiempo que tenemos que mantener pulsada una tecla para empezar a repetir. Su valor se especifica en milisegundos.
Opción de seguridad: Aquí podemos especificar si el equipo nos pedirá una contraseña para entrar a la BIOS y/o al sistema.
PCI/VGA Palette Snoop: este parámetro solo debería funcionar si tenemos una tarjeta gráfica ISA antigua instalada en nuestro sistema, lo cual es muy poco probable.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadoras y Redes 101
OS Select For DRAM > 64MB: Esta opción solo debe activarse si disponemos de al menos 64Mbytes de memoria y el sistema operativo es IBM OS/2.
Menciona cuando quieras ver más por la tarde.
Delay IDE Initial (Sec): le permite especificar la cantidad de segundos que el BIOS debe esperar durante el proceso de arranque para reconocer el disco duro. Esto es necesario en algunos modelos de discos duros, aunque ralentiza el proceso de arranque.
Modo de número de procesador: este modo es exclusivo del Pentium III. Con él, tenemos la capacidad de habilitar o deshabilitar la capacidad de acceder a la función de número de serie universal integrada en estos procesadores.
Video BIOS Shadow: A través de esta función y las siguientes, se habilita la capacidad de copiar el firmware del BIOS desde la tarjeta de video a la RAM, para que se pueda acceder a ellos mucho más rápido.
CONFIGURAR LAS CARACTERÍSTICAS DEL CHIPSET:
CONFIGURACIÓN DE RECURSOS DE CHIP ROM PCI/ISA BIOS (2A59IS2B)
PRIS SOFTWARE, INC.
Retraso de SDRAM de CAS a CAS Retraso de SDRAM de CAS Tiempo de salida de SDRAM Comando de SDRAM Precarga DRAM Control Modo de integridad de datos Sistema BIOS Cachebar Video BIOS Cachebar Video RAM Cachebar Tiempo de recuperación de E/S de 8 bits Tiempo de recuperación de memoria de E/S de 16 bits Gap5M-16 AGP pasivo versión Transacción retrasada Tamaño de apertura (MB) Espectro ensanchado
: 3 : 3 : 3 : Deshabilitado : No ECC : Habilitado : Habilitado : Deshabilitado : 1 : 1 : Deshabilitado : Habilitado : Deshabilitado : 256 : Deshabilitado
Advertencia de temperatura de la CPU (CON2) Temperatura del sistema de la CPU Ventilador (FAN2) Velocidad del ventilador del chasis (FAN3) Velocidad Vcore: 2,01 V + 3,3 V + 5 V: 5,05 V + 12 V - 12 V: -11,95 V
: 70ºC/158ºF : N/A : 35ºC/95ºF : 4350 RPM : 4350 RPM : 3,31 V : 12,28 V
Aquí tenemos que ajustar todos los parámetros relacionados con el chipset, la memoria y los parámetros de la CPU, ...
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 102
SDRAM CAS-to-CAS Delay: se utiliza para insertar un ciclo de retraso entre las señales CAS y RAS STROBE cuando se escribe o actualiza la memoria. Cuanto menor sea el valor, mayor será el rendimiento, mientras que cuanto mayor sea el valor, mayor será la estabilidad.
Dentro de la memoria, un STROBE es una señal enviada para validar datos o direcciones de memoria. Cuando hablamos de CAS (Column Address Strobe), nos referimos a una señal enviada a la RAM que asigna una ubicación de memoria específica con una columna de direcciones. El segundo parámetro relacionado con CAS es RAS (Row Address Strobe), que también es una señal responsable de asignar una ubicación de memoria específica a una línea de dirección.
Tiempo de latencia SDRAM CAS: Indica el número de ciclos de reloj de la latencia CAS, que depende directamente de la velocidad de la memoria SDRAM. Como regla general, cuanto menor sea el valor, mayores serán los beneficios.
Comando SDRAM Lead off: Desde aquí puede configurar la velocidad de acceso a la memoria SDRAM.
Control de precarga de SDRAM: si está habilitado, todos los bancos de memoria se actualizan en cada ciclo de reloj.
Modo de integridad de datos DRAM: especifica el método de verificación de integridad de datos, que puede ser paridad o código de corrección de errores ECC.
BIOS del sistema almacenable en caché: si está habilitado, copiamos el código almacenado en la ROM del BIOS a las direcciones RAM F0000h-FFFFFh. Esto acelera enormemente el acceso a este código, aunque pueden surgir problemas si un programa intenta utilizar el área de memoria en uso.
BIOS de video almacenado: coloca el BIOS de la tarjeta de video en la memoria principal, mucho más rápido que la ROM de la tarjeta, lo que acelera todas las operaciones gráficas.
RAM de video en caché: nos permite optimizar el uso de RAM en nuestra tarjeta gráfica mediante el uso de caché L2 de segundo nivel de nuestro procesador. No todos los modelos de tarjetas gráficas son compatibles.
Tiempo de recuperación de E/S de 8 bits: se utiliza para especificar el tiempo de retardo interpuesto entre operaciones de recuperación consecutivas de comandos de E/S de dispositivos ISA. Se expresa en ciclos de reloj y puede necesitar ajustes para tarjetas ISA más antiguas. Cuanto menor sea el tiempo, mejores serán los beneficios con este tipo de tarjeta.
Tiempo de recuperación de E/S de 16 bits: Igual que el punto anterior, pero referido a dispositivos ISA de 16 bits.
Ranura de memoria a 15M-16M: Le permite reservar un megabyte de RAM para acomodar ROM en algunas tarjetas ISA que lo necesitan. Se recomienda dejar esta opción sin marcar a menos que sea necesario.
Versión pasiva: se utiliza para ajustar el comportamiento del chip Intel PIIX4 que une PCI-ISA. La función "Passive Release" encontrará la latencia del bus ISA principal, por lo que si nos encontramos con problemas de incompatibilidad con algunas tarjetas ISA, podemos jugar deshabilitando/habilitando este valor.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 103
Latencia de transacción: esta función detecta los ciclos de latencia presentes en las transacciones del bus PCI al ISA o viceversa. Debe estar habilitado para cumplir con las especificaciones PCI 2.1.
Tamaño de apertura AGP (MB): establece la apertura del puerto AGP. Este es el rango de direcciones de memoria dedicadas a funciones gráficas. En tamaños muy grandes, el rendimiento puede degradarse debido al aumento de la carga de memoria. Lo más común es ponerlo en 64 Mbytes, aunque lo mejor es probar con valores entre el 50 y el 100% de la cantidad de memoria instalada en el equipo.
Espectro ensanchado: activa un modo en el que la velocidad del bus del procesador se ajusta dinámicamente para evitar interferencias en la forma de onda de radio. Si está activado, los beneficios se reducen.
Advertencia de temperatura: Esta opción le permite ajustar la temperatura máxima de funcionamiento de nuestro microprocesador antes de que suene la "alarma" de sobrecalentamiento. Si no se interrumpe la alimentación en un tiempo mínimo, la placa lo hará automáticamente para evitar daños irreparables.
CONFIGURACIÓN DE GESTIÓN DE ENERGÍA:
BIOS ROM PCI/ISA (2A59IS2B) CONFIGURACIÓN DE ADMINISTRACIÓN DE ENERGÍA
PRIS SOFTWARE, INC.
Modo ACPI Administración de energía Control de PM APM Método de apagado de video Apagado de video después del apagado del ventilador de la CPU Selección de IRQ del usuario del módem
Modo de hibernación Modo de espera Modo de hibernación HDD Power Dows Accelerator Ciclo de trabajo
Botón de modo de reanudación Activación de LAN Omisión Habilitar Habilitar despertar en alarma
: Deshabilitado : Personalizado : Sí : V/HSYNC+Vacío : En espera : Suspender-> Apagado : NA : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : 62,5%
: Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado
IRQ[3-7,9-15], Ενεργή οθόνη NMI VGA IRQ 8 Interrumpir Suspender IDE Principal Principal IDE Esclavo primario IDE Maestro secundario IDE Esclavo secundario Disquete Puerto serie Puerto paralelo Ratón Interrumpir Suspender
: Habilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Deshabilitado : Habilitado : Deshabilitado : Ναι
Pantalla donde podemos ajustar todos los parámetros relacionados con el ahorro energético
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 104
Capacidad ACPI: esta característica permite que un sistema operativo habilitado para ACPI tome el control directo de todas las funciones de administración de energía y plug & play. Actualmente, solo Windows 98 y 2000 cumplen con estas especificaciones. Además, los controladores para diferentes dispositivos deben ser compatibles con estas funciones.
Una de las grandes ventajas es que puede apagar el equipo inmediatamente y restaurarlo en segundos sin tener que pasar por los procedimientos de preparación. Esto, que durante mucho tiempo fue común en las notebooks, ahora está disponible en nuestra computadora, siempre y cuando tengamos al menos el chip i810, que es el primero en soportar esta función.
Gestión energética: Aquí podemos elegir entre una serie de esquemas para introducir el ahorro energético. Si elegimos "DEFINIR USUARIO" podemos elegir el resto de parámetros.
Control de PM por APM: Si está habilitado, dejamos el equipo en manos de APM (Advanced Power Management), un estándar creado y desarrollado por Intel, Microsoft y otros fabricantes.
Video End Method: Aquí es donde definimos cómo se apagará nuestra pantalla. "V/H SYNC+Blank" deshabilita los barridos horizontales y verticales y el recorte del búfer de video.
"Blank Screen" simplemente deja de mostrar datos en la pantalla. Finalmente, DPMS (Display Power Management Signaling) es un estándar VESA que debe ser compatible con nuestro monitor y tarjeta gráfica, que envía un comando de apagado directamente al sistema gráfico.
Apagar video después: Aquí tenemos muchas opciones para apagar la pantalla. "NA" no se desconectará. "Suspender" solo se desactivará en el modo de suspensión. “Standby” estará deshabilitado cuando estemos en modo standby o standby. "Doze" significa que la señal de video deja de funcionar en todos los modos de energía.
Opción de apagado del ventilador de la CPU: habilita la opción de apagado del ventilador de la CPU cuando se ingresa al modo de suspensión.
Modem User IRQ: Esta opción nos permite especificar la interrupción utilizada por nuestro módem.
Sleep mode: Aquí definiremos la cantidad de tiempo que transcurrirá desde que la computadora deja de recibir eventos hasta que se apaga. Si deshabilitamos esta opción, el equipo pasará directamente al siguiente modo de encendido sin pasar por él.
Estado de suspensión: especifica la cantidad de tiempo que transcurrirá después de que la computadora esté inactiva antes de entrar en un estado de suspensión. Como antes, si deshabilitamos esta opción, pasará directamente al siguiente estado de energía sin pasar por él.
Estado de Suspensión: Tiempo que transcurrirá antes de que nuestro equipo entre en estado de suspensión. Si no está habilitado, el sistema ignora esta entrada.
Apagado del disco duro: aquí estableceremos la hora en que el sistema hará que el disco duro entre en modo de ahorro de energía, lo que extenderá su vida útil. A pesar de,
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 105
Este parámetro hay que tratarlo con cuidado, ya que un tiempo muy corto puede hacer que nuestro disco esté constantemente conectado y desconectado, lo que provocará que estos frecuentes arranques y paradas dañen el disco, además del tiempo que perderemos, ya que tarda unos más segundos para empezar. El ajuste normal es entre 10 y 15 minutos.
Throttle Duty Cycle: Determinaremos el porcentaje de trabajo que hará nuestro procesador cuando el sistema entre en modo de ahorro de energía, tomando como referencia su velocidad máxima.
Power Button Override: Esta opción permite que, luego de presionar el botón de encendido por más de 4 segundos, mientras el equipo está funcionando normalmente, el sistema será apagado por el software.
Reanudar a través de LAN: característica muy útil ya que nuestro sistema podrá iniciarse a través de nuestra tarjeta de red. Para esto, la tarjeta y el sistema deben cumplir con la especificación "WAKE ON LAN" y se debe tender un cable desde la tarjeta de red hasta la placa base.
Activación de timbre: Conectando un módem al puerto serie, inicializaremos nuestro equipo cuando recibamos una llamada.
Habilitar alarma: Con este parámetro podemos configurar la fecha y hora del inicio automático del equipo.
Eventos del temporizador PM: esta categoría incluye todos los eventos después de los cuales el temporizador se reinicia para ingresar a los diversos modos de ahorro de energía. Por lo que podemos habilitar o deshabilitar algunos de ellos para que sean ignorados y aunque ocurran, la cuenta atrás continúa.
IRQ (3-7, 9-15], NMI: Este parámetro se refiere a cualquier evento que ocurra en varias interrupciones del sistema.
Pantalla VGA activa: Verifique si la pantalla está realizando funciones de E/S, si es así, reinicie el temporizador.
IRQ 8 Break Suspend: permite que la función de alarma, a través de la interrupción 8, active el sistema desde el modo de ahorro de energía.
IDE primario/secundario maestro/esclavo: esta función supervisa "de cerca" el disco duro en los puertos especificados, por lo que si detecta movimiento (golpes), reinicia el temporizador.
Disquete: Controlará las operaciones realizadas en la disquetera.
Puerto serie: supervisa el uso del puerto serie.
Puerto Paralelo: Controla el paso de información a través del puerto paralelo.
Suspensión de interrupción del mouse: permite que un movimiento del mouse active completamente el sistema y entre en el modo de funcionamiento normal.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 106
CONFIGURACIÓN PNP/PCI:
ROM PCI/ISA BIOS (2A59IS2B) PNP/PCI CONFIGURATION AWARD SOFTWARE, INC.
Funciones OS PNP Force Update ESCD instaladas controladas por
: Sí : Deshabilitado : Manual
IRQ-3 asignado a IRQ-4 asignado a IRQ-5 asignado a IRQ-7 asignado a IRQ-9 asignado a IRQ-10 asignado a IRQ-11 asignado a IRQ-12 asignado a IRQ-14 asignado a IRQ-15 asignado a DMA-0 asignado a DMA -1 asignado a DMA-3 asignado a DMA-5 asignado a DMA-6 asignado a DMA-7 asignado a
: PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp : PCI/ISA Pnp
Asignar IRQ a VGA Asignar IRQ a USB
PIRQ_0 Utiliza el número de IRQ. PIRQ_1 Usa el número de IRQ. PIRQ_2 Usa el número de IRQ. PIRQ_3 Utiliza el número de IRQ.
: Habilitado : Habilitado
: Automático : Automático : Automático : Automático
La pantalla de asignación de recursos de nuestra computadora y el comportamiento del sistema Plug & Play
Sistema operativo PNP instalado: le permite especificar si los recursos de la máquina serán administrados solo por el BIOS o en su lugar por el sistema operativo, que por supuesto debe ser Plug & Play.
Force ESCD Update: si esta opción está habilitada, el BIOS restablecerá todos los valores de configuración actuales de las tarjetas PCI e ISA PnP para reasignar recursos en el próximo arranque. ESC significa Datos de configuración del sistema extendido.
Recurso administrado por: este parámetro determina si las interrupciones y los canales DMA se administrarán manualmente o si el propio BIOS los asignará automáticamente. Un valor de "Auto" permite que todas las interrupciones y los canales DMA libres se vean en la pantalla para determinar si estarán disponibles para que los use el sistema PnP. Para habilitar o deshabilitar esta opción, solo debemos ponernos en IRQ o DMA y cambiar su estado, teniendo en cuenta que en la posición "PCI/ISA PnP" los queremos libres.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 107
Asignar IRQ a VGA: Al habilitar esta opción, la tarjeta asignará una interrupción a nuestra tarjeta gráfica. Esto es muy importante en la mayoría de los mapas modernos, que a menudo no funcionan sin estos datos de trabajo.
Mapeo de IRQ a USB: Caso similar al anterior, pero para puertos USB.
PIRQ_x Usage IRQ No.: Aquí podemos asignar una interrupción específica para la tarjeta PCI insertada en la posición indicada por X. Esto puede ser muy interesante para casos en los que necesitamos crear recursos muy específicos para algunos dispositivos, también muy específicos.
REGIONES INTEGRADAS:
ROM PCI/ISA BIOS (2A59IS2B) PERIFÉRICOS INTEGRADOS
PRIS SOFTWARE, INC.
Controlador Integreret IDE-1 - Modo de unidad maestra PIO - Modo de unidad esclava PIO - Unidad maestra Ultra DMA - Unidad esclava Ultra DMA Controlador Integreret IDE-2 - Modo de unidad maestra PIO - Modo de unidad esclava PIO - Unidad maestra Ultra DMA - Unidad esclava Ultra DMA
Soporte de teclado USB primero a través de la pantalla de inicio
Reloj de entrada KBC Seleccione el modo de activación
: Hasta : Auto : Auto : Auto : Auto : Hasta : Auto : Auto : Auto : Auto
: BIOS : AGP
: 8 MHz : Solo botón
Controlador FDD incorporado Puerto serial incorporado 1 Puerto serial incorporado 2 - Modo IR incorporado Puerto paralelo incorporado - Modo de puerto paralelo - Modo ECP Uso de DMA - Selección de modo EPP
: Habilitado : 3F8/IRQ4 : 2F8/IRQ3 : Deshabilitado : 378/IRQ7 : ECP+EPP : 3 : EPP1.7
La pantalla de configuración del puerto del chipset y del controlador de disco
Controlador IDE-1 integrado: Nos permite activar o desactivar el controlador IDE principal.
Modo de unidad maestra/esclava PIO: se utiliza para establecer el nivel de PIO de la unidad maestra/esclava conectada a la IDE maestra. El valor predeterminado es dejarlo en Auto.
Unidad maestra/esclava Ultra DMA: aquí debemos habilitar o deshabilitar la compatibilidad con la unidad Ultra DMA 33 del primer canal IDE. Es mejor configurarlo en "Auto".
Controlador IDE-2 integrado: Aquí habilitaremos o deshabilitaremos el controlador IDE secundario.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 108
Modo de unidad maestra/esclava de PIO: se utiliza para establecer el nivel de PIO de la unidad maestra/esclava conectada al IDE secundario. El valor predeterminado es dejarlo en Auto.
Unidad Master/Slave Ultra DMA: aquí debemos habilitar o deshabilitar la compatibilidad con la unidad IDE de 33 segundos Ultra DMA de 33 canales. Es mejor configurarlo en "Auto".
Compatibilidad con teclado USB Vía: aquí se especifica quién debe admitir el teclado USB, el BIOS o el sistema operativo.
Init Display First: Le permite especificar el bus en el que se encuentra la tarjeta gráfica de inicio. Es útil si tenemos dos controladores gráficos, uno AGP y otro PCI.
Selección de reloj de entrada KBC: establece la velocidad del reloj del teclado. Útil si tenemos problemas con la operación.
Modo de activación: Le permite decidir cómo activar nuestra máquina. Podemos elegir entre el botón de encendido, el teclado e incluso el ratón.
Controlador FDD integrado: activa o desactiva el controlador de disquete integrado.
Puerto serie integrado 1: activa, desactiva o configura el primer puerto serie integrado.
Integrated Serial Port 2: activa, desactiva o configura el segundo puerto serie integrado.
Función IR Onboard: Activa el segundo puerto serie como puerto de infrarrojos conectando el adaptador correspondiente a nuestra placa base.
Puerto paralelo integrado: activa, desactiva o configura el puerto paralelo integrado.
Modo de puerto paralelo: indica el modo de puerto paralelo. Pueden ser SPP (estándar), EPP (puerto paralelo extendido) o ECP (puerto de capacidades extendidas).
ECP Mode Use DMA: Le permite especificar el canal DMA que utilizará el puerto paralelo si selecciona el modo ECP.
Selección de modo EPP: asigna la versión de la especificación del puerto EPP a seguir si se selecciona.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 109
Habilitar contraseña:
Todas nuestras computadoras tienen la capacidad de comenzar con una contraseña, lo cual es necesario en muchos casos para preservar nuestros datos y privacidad. Activar esta contraseña o password es muy sencillo y muy rápido. En este artículo explicaremos cómo hacer esto en BIOS AWARD.
Para hacer esto, solo sigue estos pasos:
1. Lo primero que debe hacer es iniciar su computadora e ingresar al BIOS, para esto debe seguir las instrucciones descritas en estas páginas.
2. Una vez que ingresemos al menú de la BIOS, debemos ingresar la contraseña seleccionada para iniciar el sistema. Para hacer esto, simplemente use las teclas de flecha para navegar a las opciones CÓDIGO DE USUARIO y CÓDIGO DE SUPERVISOR.
Pantalla de configuración principal
Seleccione uno de ellos, por ejemplo Código de Supervisor, selecciónelo y presione ENTER. En este momento aparecerá una ventana en la que deberá introducir la contraseña seleccionada. Debe confirmar esto para evitar errores.
Luego haga exactamente lo mismo con la contraseña del usuario.
3. Como ya hemos configurado las contraseñas, debemos indicarle al sistema que queremos que se active al iniciar, de modo que cuando encendamos nuestra computadora, lo primero que hará será pedir la contraseña y no podrá para acceder a nuestros registros.
Para ello, vaya a BIOS FEATURES SETUP y habilite la opción SECURITY para que la opción sea SETUP, como se muestra en la siguiente imagen:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 110
CONFIGURACIÓN DE FUNCIONES DEL BIOS
Luego de realizar este cambio, presionaremos ESC en el teclado para salir de la pantalla principal. Luego guardamos los cambios presionando ENTER en la ventana principal en la opción SAVE & EXIT SETUP. Nos hará una pregunta de confirmación, a la que responderemos pulsando la tecla que contiene la letra Y (Sí=Si).
Tras ello, el sistema se reiniciará y veremos como al inicio nos aparecerá un mensaje pidiéndonos la contraseña.
Esperamos que toda la información de tu ordenador ahora se almacene mucho mejor.
CMOS: (inglés: Complementary Metal Oxide Semiconductor, "Complementary MOS") es una tecnología utilizada para crear circuitos integrados, como puertas lógicas, contadores (entre ellos, los decimales de Johnson son muy populares), etc. Básicamente consta de dos transistores, un PFET y un NFET. El nombre proviene de esta configuración.
Los chips CMOS consumen menos energía que los que usan otros tipos de transistores. Tienen un atractivo particular para su uso en componentes que funcionan con baterías, como las computadoras portátiles. Las computadoras de escritorio también contienen dispositivos de memoria CMOS de bajo consumo para almacenar la fecha, la hora y la configuración (BIOS).
Existen varios tipos de ventajas y desventajas de estos circuitos, ya que el problema del daño por electricidad estática es el espectro que más afecta el uso comercial de estos circuitos integrados.
Entre las principales ventajas de CMOS, destacan dos:
1. Trabajan con voltajes desde 3V hasta 15V, por lo que no necesitan una fuente de voltaje especial para ellos.
Estructura bajo el microscopio CMOS.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 111
1. Se ha demostrado que un CMOS determinado tiene muchas más aplicaciones (o esas aplicaciones funcionan mejor en CMOS) que en un TTL
Además, la fabricación es relativamente fácil y barata en comparación con otras tecnologías.
CLEAR-CMOS:
La mayoría de las placas base tienen uno o más Jumpers a través de los cuales es posible restablecer completamente el BIOS y así restaurar la funcionalidad del sistema. La ubicación de estos puentes (o, a veces, interruptores DIP o interruptores) varía de un fabricante a otro, por lo que no podemos decirle su ubicación y uso. Será importante tener el manual de tu placa base para comprobar exactamente dónde están.
Es posible que no tengas los documentos necesarios o que te sea imposible conseguirlos. En este caso, es probable que estos puentes estén debidamente etiquetados para facilitar su ubicación. Estas marcas o series pueden ser las siguientes:
LIMPAR - LIMPAR CMOS - CLR - CLRPWD - CONTRASEÑA - CONTRASEÑA RD - PWD
En las computadoras portátiles o portátiles, estos puentes o interruptores generalmente se ubican debajo del teclado o quitando una cubierta ubicada en la parte inferior del equipo. Asegúrese de desenchufar la computadora antes de realizar cualquier manipulación interna, excepto para tocar cualquier superficie metálica si necesita manipular los componentes. La electricidad estática que puede contener nuestro cuerpo puede dañar partes sin posibilidad de reparación. Una vez que se encuentran los puentes, debemos cambiar su posición, encender el equipo y verificar si la contraseña ya está deshabilitada. En este caso, debemos apagar de nuevo el equipo y seguir las recomendaciones anteriores. Cuando se abre de nuevo, los puentes o interruptores se restablecen a su posición original. En esta imagen podéis ver varios ejemplos de ubicación del JUMPER necesario, que os hemos comentado:
Este Jumper Clear-Cmos suele estar formado por tres pines o pines de contacto, pero existen otros modelos más modernos en el mercado:
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 112
1: Este modelo Clear-Cmos es el tradicional, la posición 1 2 está encendida, 2 3 está apagada.
2: Con solo dos pines, colocando un puente y quitándolo se borra el Cmos.
3: Tipo de botón, si lo presiona con la computadora encendida, la memoria CMOS se borrará.
4: el más económico, en lugar de dos pines, tiene dos soldaduras, que al hacer un puente eléctrico como en la foto con un destornillador se borran.
REGIONES INTEGRADAS:
Podemos llamar Periféricos Integrados a los componentes que se incluyen en la placa base, pero no son los que corresponden al grupo Onboard, es decir, Vídeo, Módem, Audio y Red. Podemos distinguir fácilmente estos componentes ya que son los que se pueden ver desde la parte posterior de la computadora, incluida la parte frontal de la carcasa.
En la categoría de periféricos integrados debemos incluir IDE, FDC, SATA y otros, pero en este caso no nos ocuparemos de los siguientes:
1. Toma de teclado Mini Din. 2. Puertos USB. 3. Puertos serie o DB9. 4. Puerto paralelo DB25. 5. Cable de fuego. 6. Puerto de ratón PS/2.
1 2 3
4
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 113
En el caso del zócalo para teclado, también tenemos el modelo anterior denominado DIN con 5 contactos internos en lugar de 6 para mini Din:
DIM y Mini DIN: (teclado)
El teclado es el dispositivo básico de entrada de la computadora. Su forma y función prácticamente no ha sufrido cambios desde la aparición de la IBM PC hasta la actualidad, salvo pequeños cambios en los detalles, que unificaron 4 tipos de teclado que pueden considerarse estándar. tres de ellos fueron presentados por IBM, el cuarto presentado por Microsoft para sistemas Windows.
• Teclado PC XT de 83 teclas (descontinuado)
• Teclado PC AT de 84 teclas (descontinuado)
• Teclado extendido de 101 teclas
• Teclado de teclas extendido de Windows 104.
Además de los anteriores, se han utilizado otros tipos no estándar, principalmente los destinados a ordenadores portátiles, donde el tamaño no permite la distribución convencional de claves. Prácticamente todos usaron el diseño
ROJO
Adaptador DIN para Mini Din
6 4
3
5 como
1 2
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 114
Teclas clásicas de máquina de escribir (tipo QWERTY), que se mantienen hasta el día de hoy, aunque existieron otros diseños. Por ejemplo, la matriz de Dvorak.
Tipos basicos
Antes de entrar en detalles, supongamos que todas las teclas del teclado de una computadora producen una señal cuando se presionan ("Generar código") y otra cuando se sueltan ("Romper código"). En función de cómo los utilice el sistema, existen tres tipos:
• Teclas predeterminadas. Producen las señales correspondientes cuando se presionan y sueltan. No producen ningún efecto adicional.
• Teclas de cambio instantáneo. Cambian la dirección de otras teclas cuando se presionan, pero el efecto desaparece cuando se sueltan. Hay tres de este tipo: las teclas Shift, Alt y Ctrl, que se encuentran duplicadas a cada lado del teclado.
• Contactos de transición permanentes. Tienen un efecto similar a los anteriores, cambiando la dirección de las otras teclas, pero su efecto se conserva al soltarlas. Estas son las teclas Caps Lock, ScrLk, NumLk e Insert. Su acción es de tipo ON/OFF. para cambiar el efecto es necesario pulsar/soltar de nuevo.
Los primeros teclados, el XT de 83 teclas. El AT 84 y algunos conmutadores ampliados 101/102 utilizan un conector DIN de 5 pines con el macho en el lado del teclado y la hembra en el lado de la placa base. Con la excepción de algunos modelos de IBM, el cable está bien conectado al teclado.
La introducción de IBM de PS/2 inició la tendencia de utilizar conectores mini-DIN para teclados y ratones. La tendencia actual es utilizar puertos USB para ambos dispositivos de entrada. Recientemente, se está extendiendo la moda de los dispositivos inalámbricos ("inalámbricos"). Esto no quiere decir que estos modelos no utilicen la ranura para teclado. Lo que realmente falta es el cable entre el dispositivo que se conecta al conector de la computadora y el teclado mismo. La fiesta empezó con una conexión por infrarrojos, pero hoy en día casi todo es radiofrecuencia.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 115
Zócalo de 5 pines DIN41524 180°
Zócalo MINI-DIN estilo PS/2 de 6 pines
Descripción del nombre del pin
1 +DATOS Datos básicos
2 n/d No utilizado
3 tierra tierra
4 VCC +5 V. CC
5 + CLK tu
6 n/d No utilizado
Algunos teclados pequeños, especialmente las computadoras portátiles pequeñas, usaban una combinación compacta que incluía el "pad" numérico del teclado de escritura normal. Algunas teclas tienen doble uso, letras normales y teclas numéricas. El bloqueo de una forma u otra se realiza con una tecla especial (generalmente a la izquierda del espacio marcado "Fn").
Teclado extendido de 101 teclas
Introducido por IBM junto con el modelo PS/2 en 1987, adopta el diseño que se ha mantenido casi sin cambios hasta el día de hoy, las teclas están organizadas en cuatro bloques y la tecla Enter es doble.
Descripción del nombre del pin
1 + CLK ur
2 +DATOS Datos
3 n/d No utilizado
4 tierra tierra
5 VCC +5 V. CC
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 116
• Teclas de función: Tiene una fila superior de 13 teclas, con la tecla Esc a la izquierda, y 12 teclas de función, F0 a F12, dispuestas en tres grupos de 4 en el teclado.
• Teclado: ubicado debajo de la fila de teclas de función. Su diseño es similar a los teclados anteriores.
• Teclas de control: Conjunto de 13 teclas situadas a la derecha del anterior, que incluye algunas opciones que en teclados anteriores se usaban en combinación con otras en teclas de doble uso, por ejemplo las cuatro teclas para mover el cursor (flecha derecha , izquierda , arriba y abajo).
• Teclado numérico: a la derecha hay un conjunto de 17 teclas que incluye un conjunto de caracteres numéricos ("teclado numérico") con números del 0 al 9, +/- caracteres. el punto decimal; multiplicación, división, bloqueo numérico y Enter. Las llaves siguen teniendo doble uso.
El teclado PS/2 original usaba un conector mini-DIN de 6 pines, que otros fabricantes adoptaron rápidamente. La diferencia con el DIN tradicional es solo mecánica. Si es necesario conectar un teclado con conector PS/2 (mini-DIN) a un sistema con conector DIN o viceversa, se pueden utilizar adaptadores. Acepta un total de 17 comandos de la placa base.
Teclado de degustación extendido de Windows 104
Este teclado fue presentado por Microsoft desde el lanzamiento de Windows 98 y tiene tres nuevas teclas específicas llamadas Windows Left, Windows Right y Application. Al presionar estas teclas, se generan secuencias que tienen un significado especial para el sistema operativo o los programas de aplicación.
El uso de un teclado con un conector USB en el arranque requiere que el BIOS tenga soporte adecuado para el repetidor raíz USB de la placa base. De lo contrario, debe conectarse al enchufe mini-DIN tradicional con un adaptador adecuado.
servicios de BIOS
El BIOS de la computadora admite dos interrupciones de servicio de teclado que pueden considerarse estándar. hay un tercero que puede considerarse complementario. Se supone que el usuario debe darle un significado específico:
De este servicio ya se ha comentado el funcionamiento del teclado. Su función principal es analizar los códigos de escaneo recibidos y convertirlos en códigos byte almacenados en el búfer del teclado, pero además, el análisis que realiza la rutina permite varias acciones propias de la computadora:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 117
cancelación del sistema
La combinación Ctrl + Alt + Supr produce un reinicio del sistema conocido como arranque en caliente ("Warm Boot" o "Warm Boot"), en el que se suprime la fase de verificación POST del BIOS. La combinación Ctrl + Alt + Shift + Supr crea el llamado arranque en frío, que incluye comprobaciones POST.
Serigrafía usando combinaciones de desplazamiento a la izquierda. + PtrSc o Desplazamiento a la izquierda + *.
Print Screen es un servicio de BIOS que funciona con una interrupción de 5 horas y, por lo tanto, puede ser llamado por cualquier programa que lo necesite. En este caso, la interrupción 9h simplemente llama a este servicio si detecta la combinación de teclas anterior.
Pause el sistema con Pause o la combinación Ctrl + NumLk.
El estado de bloqueo o hibernación del sistema es una función de la rutina de mantenimiento del teclado del BIOS. Cuando se detecta esta combinación de teclas, la rutina establece el bit de estado correspondiente (bits 4 a 1) y entra en un ciclo donde no hace nada, solo espera que se presione alguna tecla estándar (imprimible). Hasta que esto suceda, no devuelve el control al programa, aunque todas las demás interrupciones se atienden normalmente, por lo que el sistema continúa ejecutándose, pero el programa que espera la entrada del teclado se interrumpe. Cuando finalmente se presiona una tecla imprimible, borra el bit de bloqueo y sale del ciclo, lo que permite que el programa continúe.
Entrada directa de códigos ASCII. Esta característica del servicio se conoce como "Truco Alt-Numérico" y le permite ingresar cualquier código ASCII (1 a 255) presionando la tecla Alt y los números en el teclado numérico para ingresar directamente el código ASCII decimal deseado. Cuando finalmente se suelta la tecla Alt, la rutina del BIOS calcula el valor ASCII correspondiente al número impreso y lo coloca en el búfer del teclado como si hubiera sido presionado por una tecla correspondiente a ese símbolo. Por ejemplo, Alt + 1 - 2 - 6 es una forma rápida de ingresar la tilde "~" para aquellos que usan un teclado español (donde este carácter no suele aparecer).
El teclado y el sistema operativo
Los detalles operativos varían, pero en general el procesamiento de las señales del teclado por parte del sistema operativo se realiza a través de un mapa que asocia cada código (keycode) que se encuentra en el búfer del teclado con una acción o atributo específico. De esta forma, la tarea de cambiar el "idioma" del teclado se limita a cambiar el mapa (o parte de él).
Idioma del teclado.
La diferencia entre teclados de diferentes idiomas es que a una misma tecla en cada teclado le corresponde un símbolo diferente. Por ejemplo, el teclado inglés estadounidense tiene los símbolos ";"/":" en la tecla 40, que está a la derecha de la "L", mientras que el teclado español tiene una "ñ"/"Ñ" en esa posición.
A menudo se dice que un teclado es "español", "francés", "alemán", "americano", etc. dependiendo de los símbolos dibujados en las teclas, pero no hay diferencias
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 118
eléctrico. Cuando se presiona una tecla, el teclado siempre produce el mismo código de escaneo, independientemente de su "idioma". Por ejemplo, al presionar la tecla 40 se generará el código 27, independientemente del símbolo "?". o el carácter "ñ" de la tecla. El hecho de que aparezca algún símbolo en el documento que escribimos se debe a la interpretación que el sistema operativo hace de este código.
Puerto serial:
Los diseñadores de computadoras de IBM ya habían anticipado la posibilidad de la comunicación en serie, lo que les permitió instalar hasta 7 puertos de comunicación en serie asíncronos RS-232.C (aunque es raro instalar más de dos). para dar servicio a estos puertos tenían los servicios correspondientes en la BIOS. En los primeros modelos, la electrónica necesaria no estaba incluida en la placa base, por lo que los puertos debían instalarse en adaptadores en la placa, que se insertaban en cualquiera de los enchufes disponibles.
En general, las direcciones de puerto y las interrupciones se utilizan de la siguiente manera:
Nombre Dirección IRQ
COM1 3F8-3FF IRQ4
COM2 2F8-2FF IRQ3
COM3 3E8-3EF IRQ4
COM4 2E8-2EF IRQ3
La comunicación en serie hizo posible conectar varios dispositivos a la computadora, como un mouse. impresora u otra computadora, aunque su principal aplicación eran las telecomunicaciones modernas.
Estándares RS-232
Porta Serial (DB9)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 119
RS-232.C significa literalmente "Estándar recomendado 232 revisión C" (también conocido como EIA 232). Es un estándar publicado en 1969 por la EIA ("Electronic Standard Association") que define las características eléctricas que deben tener los conectores para la comunicación serial entre computadoras y equipos periféricos. Su título dice exactamente: "Conexión entre equipos terminales de datos y equipos de comunicación de datos mediante intercambio de datos binarios en serie" e incluye varios apartados:
• Las características eléctricas de la conexión
• Propiedades mecánicas de la conexión
• Descripción funcional del panel, nombre de las señales utilizadas.
• Ejemplos de conexiones a una selección de sistemas de comunicación
Como se muestra en el título de la norma, existen dos tipos de dispositivos en la comunicación serial: Equipo terminal de datos (DTE) y Equipo de comunicación de datos (DCE). En la terminología de las comunicaciones en serie, el "sexo" de un dispositivo se denomina tipo. En este sentido, DTE y DCE son "géneros" opuestos. A efectos prácticos, el tipo de equipo determina qué mapeo de señal tendrá su toma externa.
Recuerde que en la comunicación serial, como en todas las demás comunicaciones informáticas, existen dos aspectos complementarios: Uno se relaciona con las características físicas de la conexión. en este caso las propiedades eléctricas y mecánicas, aspectos considerados en el estándar RS-232 (a estos elementos los llamaremos capa física). Otros son los protocolos de comunicación, que incluyen los sistemas de codificación de las señales que se envían desde la capa física (la llamamos capa lógica).
asignación de pines
9 PIN D-SUB MACHO sin ordenador.
9 PIN D-SUB FÊMEA no Cabo.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 120
En las comunicaciones en serie, los bits se transmiten uno tras otro (de ahí el nombre), haciéndolos mucho más lentos que sus contrapartes "paralelas", donde muchos bits se transmiten simultáneamente. La ventaja es que se puede utilizar un solo par de cables, o incluso uno solo (si el retorno es por tierra).
Existen varios tipos de transmisiones seriales:
• Simplex: Una unidad envía, la otra recibe.
• Half-duplex: Ambos dispositivos transmiten, pero no al mismo tiempo. los equipos se turnan para enviar, uno envía mientras el otro recibe.
• Dúplex completo: Ambos dispositivos transmiten simultáneamente. Para ello se necesitan dos líneas independientes, transmitir y recibir. la línea de transmisión de un dispositivo está conectada a la entrada de recepción del otro y viceversa. Los puertos seriales de la PC pueden usar esta función.
• Sincrónico: las unidades de comunicación se sincronizan al comienzo de la transmisión y la información se intercambia continuamente a una velocidad predeterminada. Para mantener la sincronización cuando no hay datos para enviar, se transmiten caracteres inactivos. Esta transmisión es más rápida que la asíncrona porque no es necesario transmitir señales de inicio o fin de datos. se reciben continuamente caracteres que pueden ser datos o no tener valor (relleno).
• Asíncrono: En este modo de transmisión no hay sincronización. No es necesario enviar caracteres de relleno, pero sí indicar cuándo empiezan y terminan los datos. Esto se hace incluyendo señales de datos de inicio y detención (bits de "inicio" y "detención") en la transmisión. En la comunicación asíncrona, la información (cada carácter) se envía dentro de un marco ("Frame") de tamaño variable, que comienza con
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 121
dicho carácter de inicio y termina con el carácter final. es el tipo de comunicación que se utiliza en los puertos seriales de las computadoras [7].
• En este tipo de comunicación, el estado de reposo (cuando no se transmite nada) se identifica con un "1" (bandera). Cuando se recibe un bit de inicio, que es "0" (en blanco), el receptor indica que comenzará a recibir datos.
Los parámetros que caracterizan estas comunicaciones son: Velocidad; equivalente; bits de datos y bits de parada. En la literatura sobre el tema, es común expresar estos datos de manera concisa. Por ejemplo: 1200 8 N 1 para indicar una transmisión de 1200 baudios con 8 bits de datos sin paridad y un bit de parada.
Los parámetros anteriores están relacionados con la forma en que se transmite la información en serie. En esta comunicación, cada carácter se ingresa en un marco ("Frame"). normalmente el inicio es un bit de inicio (siempre 1). Luego vienen los datos, que pueden ser de 5 a 8 bits. luego puede haber un bit de verificación de paridad y finalmente un bit de acarreo (siempre un 1) de longitud variable (equivalente a 1, 1,5 o 2 bits).
La tasa de transferencia ("velocidad de conexión") es la cantidad de datos transmitidos en una unidad de tiempo. Se expresa en bits por segundo (bps). En las transmisiones seriales a través de líneas telefónicas mediante módems, era común utilizar la tasa de baudios como medida de la velocidad, en homenaje a Emile Baudot, a quien ya hemos mencionado. Baud se define como el número de veces que la portadora cambia en un segundo. La velocidad que se puede utilizar depende en gran medida de la calidad del medio de transmisión (calidad de la línea), que, si (como suele ser el caso) con las líneas telefónicas, también depende de la distancia.
Los primeros dispositivos seriales operaban a velocidades muy bajas, del orden de 110 a 1200 baudios. Las comunicaciones telefónicas serie actuales están muy cerca del máximo teórico que pueden soportar los pares de cobre utilizados en la telefonía estándar. Además, para aumentar la eficiencia de la comunicación, se utilizan técnicas de compresión de datos para la transmisión y tasas variables que se pueden negociar entre los equipos de comunicación según el estado de la línea en un momento dado.
Contacto
El estándar RS-232 define un conector DB de 25 pines, de los cuales solo se utilizan 22. Las señales están diseñadas para la comunicación remota con impresoras remotas y actualmente no son realmente necesarias para la comunicación con computadoras, por lo que el uso de 8 (ocho grandes) se ha estandarizado, que se puede utilizar en enchufes de 25 o 9 pines.
La Tabla 1 muestra los nombres de las señales y la asignación de pines utilizados en el estándar para un DTE (se resaltan las señales correspondientes a los ocho grandes, el nivel de referencia y el búfer).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 122
Básicamente, el DTE transmite en el pin 2 y recibe en el pin 3. El significado de las flechas es el siguiente:
Señal procedente de DTE. Señal proveniente de DCE.
A efectos prácticos, podemos pensar en el puerto serie de la computadora como DTE.
Tabla 1 Señales RS-232 C Pin Nombre Dirección RS232. Descripción
1 GND n/a Tierra blindada
2 TXD BA Enviar datos 3 RXD BB Recibir datos 4 RTS CA Enviar solicitud 5 CTS CB Listo para enviar 6 DSR CC conjunto de datos listo
7 GND AB Sistema Tierra (niveau de referencia)
8 CD CF Carrier Detect 9 - - RESERVADO 10 - - RESERVADO
11 STF Seleccionar canal de transmisión
12 S.CD Detección de subportadora SCF
13 S.CTS SCB Liberación pequeña para despacho
14 S.TXD SBA subflujo de datos
15 Temporización del elemento de transmisión de señal TCK DB
16 Datos de recepción secundaria S.RXD SBB
17 Temporización del elemento de señal del receptor RCK DD
18 LL LL Control de Circuito Local
19 Petición S.RTS SCA pequeña para enviar
20 CD DTR Terminal de datos Klar
21 RL RL Control de Loop Remoto
22 RI CE-anillo indicador
23 Selector de velocidad de señal de datos DSR CH
24 Temporización del elemento de señal de transmisión XCK DA
25 Indicador de prueba TI TM
Las conexiones externas a los puertos seriales de la computadora se estandarizaron en 2 tipos de conectores de 9 y 25 pines (DB9 y DB25), con el macho en el lado de la computadora.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 123
La Tabla 2 muestra las asignaciones de pines para ambos conectores. Los nombres de las señales se refieren a los utilizados en la Tabla 1 (N.O. = No aplicable; N.C. = No vinculado).
Normalmente, la secuencia BIOS POST solo detecta los dos primeros puertos serie. Dado que DOS usa datos de BIOS, a excepción de los módulos de software especiales, los programas de DOS solo pueden usar COM1 y COM2. Sin embargo, esta limitación no existe para Windows 98 o 2000, que pueden usar hasta 128 puertos.
Conexión PS/2:
La ranura PS/2 o puerto PS/2 toma su nombre de la serie de computadoras IBM Personal System/2, que fue creada por IBM en 1987 y se usaba para conectar teclados y ratones. Muchos de los avances presentados fueron adoptados inmediatamente por el mercado informático, siendo este enlace uno de los primeros.
MINI-DIN HEMBRA DE 6 PINES (ESTILO PS/2) a la computadora.
La comunicación en ambos casos es serial (bidireccional en el caso del teclado) y controlada por microcontroladores ubicados en la placa base. No están diseñados para ser intercambiables en caliente, y el hecho de que esto rara vez cause algo más se debe al hecho de que los microcontroladores modernos son mucho más resistentes a los cortocircuitos en sus líneas de E/S. Pero tentar al destino no es una buena idea ya que uno de ellos puede morir fácilmente.
Aunque eléctricamente es idéntico al zócalo de teclado AT DIN 5 (con un simple adaptador se puede usar uno en el otro), por su reducido tamaño permite donde sólo cabría el zócalo de teclado, ahora el teclado y el ratón. , y también libera el puerto RS-232, que en ese momento se usaba principalmente para ratones y tenía el inconveniente de compartir interrupciones con otro puerto serie (haciendo imposible conectar un ratón a COM1 y un módem a COM3, porque el ratón cada vez que se movía la sección estaba en el dial del módem)
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 124
Por el contrario, las interfaces de teclado y mouse PS/2, aunque son similares eléctricamente, se diferencian en que la interfaz de teclado requiere un colector abierto en ambos lados para permitir la comunicación bidireccional. Las computadoras de escritorio normales no pueden reconocer el teclado y el mouse si se cambian las posiciones.
En cambio, en un portátil o en un pequeño ordenador es muy común ver una única toma PS/2 que reúne ambas conexiones con las otras tomas (ver esquema) y, mediante un cable especial, las separa en tomas normales.
Por otro lado, el mouse PS/2 es eléctricamente muy diferente al serial, pero puede usarse a través de adaptadores de puerto serial.
En equipos de marca (Dell, Compaq, HP...) la implementación es rápida, mientras que en clones 386, 486 y Pentium, al utilizar cajas tipo AT, aparecen como enchufes en una de las tomas. La llegada del estándar ATX invierte el problema. Dado que ambos son idénticos, hay mucha confusión, codificación de colores y muchos íconos (que tienden a crear más confusión entre los usuarios de diferentes marcas) hasta que Microsoft lanza la especificación PC 97, que define un estándar de color púrpura para la ranura del teclado y verde para el ratón, tanto en la ranura de la placa base como en los cables de cada periférico.
Estos ahora están siendo reemplazados por memorias USB, ya que ofrecen velocidades de conexión más rápidas, capacidades de conexión y desconexión en caliente (donde un solo teclado y / o mouse se puede usar en varias computadoras, eliminando las colecciones de teclado o la necesidad de recurrir a un interruptor en un sala multiordenador), además de ofrecer más opciones para conectar más de un periférico de forma compatible, independientemente del sistema operativo, ya sea Windows, MacOS o Linux.
Puerto USB (Bus Serie Universal):
Universal Serial Bus (USB) es una interfaz que proporciona un estándar de bus serie para conectar dispositivos a una computadora personal (generalmente una PC). Un sistema USB tiene un diseño asimétrico que consta de un único servidor y varios dispositivos conectados entre sí para ampliar el alcance de la conexión en una estructura de árbol utilizando concentradores especiales. Se pueden conectar hasta 127 dispositivos a un solo servidor, pero el total también debe incluir concentradores, por lo que la cantidad total de dispositivos realmente utilizables es un poco menor.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 125
Conectores serie "A" incluidos en tarjetas como la placa base. La serie "B" se encuentra en dispositivos USB como impresoras entre muchos dispositivos.
Color de cable, voltajes y datos:
Descripción del conector USB tipo A
color del cable
1 VBUS +5 V. CC Rojo
2 D- Dados - Blanco
3D+ Datos + Verde
4 GND Tierra Negra
Fue creado en 1996 por siete empresas: IBM, Intel, Northern Telecom, Compaq, Microsoft, Digital Equipment Corporation y NEC.
El estándar incluye la transferencia de corriente eléctrica al dispositivo conectado. Algunos dispositivos requieren una potencia mínima, por lo que se pueden conectar varios dispositivos sin necesidad de fuentes de alimentación adicionales. La mayoría de los concentradores contienen fuentes de alimentación que alimentan los dispositivos conectados a ellos, pero algunos dispositivos consumen tanta corriente que necesitan su propia fuente de alimentación. Los concentradores con una fuente de alimentación pueden proporcionar energía a otros dispositivos sin extraer energía del resto de la conexión (dentro de los límites).
USB nació como un estándar de E/S de velocidad media-alta que permite conectar dispositivos que hasta ese momento requerían de una tarjeta especial para tener todo su rendimiento, lo que encarecía el producto además de los productos propietarios, ya que había que comprar una tarjeta para cada dispositivo.
EN
si
HUBUSB
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 126
Pero además, el USB nos proporciona un único enchufe para solucionar casi todos los problemas de comunicación con el exterior, pudiendo formar una verdadera red de periféricos de hasta 127 elementos.
El diseño USB fue diseñado para eliminar la necesidad de comprar tarjetas separadas para encajar en los puertos de bus ISA o PCI y mejorar las capacidades plug-and-play al permitir que estos dispositivos se conecten o desconecten del sistema sin reiniciar. Cuando se conecta un nuevo dispositivo, el servidor lo enumera y agrega el software necesario para que funcione.
USB puede conectar dispositivos externos como ratones, teclados, escáneres, cámaras digitales, impresoras, discos duros, tarjetas de sonido y componentes de red. Para dispositivos multimedia como escáneres y cámaras digitales, USB se ha convertido en el método de conexión estándar. Para las impresoras, USB ha ganado tanta popularidad que ha comenzado a reemplazar los puertos paralelos porque USB facilita agregar más de una impresora a una PC.
En el caso de los discos duros, es poco probable que el USB reemplace por completo a los buses como ATA (IDE) y SCSI, porque el rendimiento del USB es un poco más lento que el de otros estándares. El nuevo estándar Serial ATA permite velocidades de transferencia de hasta aproximadamente 150 MB por segundo. segundo. Sin embargo, USB tiene una ventaja significativa en su capacidad para montar y desmontar dispositivos sin iniciar el sistema, lo cual es útil para dispositivos de almacenamiento montables. Hoy en día, una gran cantidad de fabricantes ofrecen dispositivos USB portátiles que son casi indistinguibles de ATA (IDE).
El USB no ha reemplazado por completo a los teclados AT y los ratones PS/2, pero casi todas las placas base de las computadoras tienen uno o más puertos USB. En el momento de escribir este artículo, la mayoría de las placas base tienen varias conexiones USB 2.0.
El estándar USB 1.1 tenía dos velocidades de transferencia: 1,5 Mbit/s para teclados, ratones, joysticks, etc. y una velocidad máxima de 12 Mbit/s. La principal ventaja del estándar USB 2.0 es la adición de un modo de alta velocidad de 480 Mbit/s. En su máxima velocidad, USB compite directamente con FireWire.
Las especificaciones USB 1.0, 1.1 y 2.0 definen dos tipos de conectores para conectar dispositivos al servidor: A y B. Sin embargo, la capa mecánica ha cambiado para algunos conectores. Por ejemplo, IBM UltraPort es un puerto USB privado ubicado en la parte superior de la pantalla LCD en las computadoras portátiles IBM. Utiliza un zócalo mecánico diferente que contiene las señales y protocolos típicos de USB. Otros fabricantes de artículos pequeños también desarrollaron sus pequeños eslabones y aparecieron un gran número de ellos. Algunos de baja calidad.
Una extensión de USB llamada "USB-On-The-Go" permite que un puerto actúe como servidor o como dispositivo; esto se determina según el lado del cable al que está conectado el dispositivo. Incluso después de que el cable esté conectado y los dispositivos se comuniquen, los 2 dispositivos pueden "cambiar roles" bajo el control del programa. Esta instalación está especialmente diseñada para dispositivos como
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 127
PDA donde la conexión USB se puede conectar a un ordenador como dispositivo y conectar a un teclado o ratón como servidor. "USB-On-The-Go" también ha diseñado 2 conectores pequeños, mini-A y mini-B, por lo que evitará la proliferación de pequeños enchufes de entrada.
USB inalámbrico (WUSB): existe la idea errónea generalizada de que esta extensión del protocolo USB se confunde con el próximo USB 3.0, que aún no se ha descubierto. Wireless USB es una extensión de USB que combina el actual USB 2.0 con opciones de transferencia inalámbrica. Sus características son la velocidad de 480 Mbps a menos de 3 metros y 100 Mbps a menos de 10 metros. Este sistema mejora mucho la comodidad en el estándar 2.0 por la tecnología inalámbrica (imaginamos la comodidad de pasar las imágenes de una cámara digital al ordenador sin tener que hacer conexiones por cable), pero también hay que tener en cuenta las implicaciones de seguridad. bajo revisión.
¿No confundir USB inalámbrico certificado con USB inalámbrico? de Cypress Semiconductor. Mientras que el primero es el estándar a reconocer, el segundo es un protocolo diseñado para dispositivos periféricos "directos", operando a 1 Mbps a 10 metros y 62,5 Kbps a 50 metros.
USB On-The-Go: esta es una mejora de la interfaz USB que le permite elegir el estado de cada puerto USB (para actuar como un dispositivo de datos o como un servidor de datos). Por lo tanto, es posible transferir todos los datos desde un puerto USB que actúa como servidor a otro puerto USB que actúa como dispositivo sin usar una computadora. También es posible cambiar el perfil de servidor a dispositivo o viceversa en cualquier momento.
Por último, recuerda que Firewire también existe como interfaz de alta velocidad.
Oporto Firewire:
IEEE 1394 o FireWire o i.Link es un estándar multiplataforma para la entrada/salida de datos en serie de alta velocidad. Se usa comúnmente para conectar dispositivos digitales como cámaras digitales y videocámaras a computadoras.
Historia:
FireWire fue inventado por Apple Computer a mediados de la década de 1990 y luego se convirtió en el estándar multiplataforma IEEE 1394. A principios de este siglo, los fabricantes de periféricos digitales lo adoptaron para convertirse en un estándar establecido. Sony utiliza el estándar IEEE 1394 denominado i.Link, que sigue los mismos estándares, pero utiliza únicamente 4 conexiones, de las 6 disponibles en el estándar IEEE 1394, eliminando las dos conexiones encargadas de alimentar el dispositivo, que deben ser suministradas con el mismo a través de un enchufe separado.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 128
Propiedades
• Alta velocidad de transferencia de información.
• Flexibilidad de conexión. • Posibilidad de conectar hasta 63
unidades.
Su velocidad la convierte en la interfaz más utilizada para audio y video digital. Por lo tanto, se usa ampliamente en videocámaras, discos duros, impresoras, reproductores de video digital, sistemas de entretenimiento en el hogar, sintetizadores de música y escáneres.
Hay dos versiones:
• FireWire 400: Tiene 30 veces más ancho de banda que USB 1.1. • IEEE 1394b, FireWire 800 o FireWire 2: duplica la velocidad de FireWire 400.
Para usos que requieren la transferencia de grandes cantidades de información, USB es muy superior.
Estándares
• Norma IEEE. 1394 Superior 1995 • Estándar IEEE. 1394a Año 2000 (Actualizado) • Estándar IEEE. 1394b de 2002
asignación de pines
4 PIN IEEE1394 HEMBRA Dispositivos de EE. UU.
6 pinos 4 pinos
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 129
6 PIN IEEE1394 HEMBRA Dispositivos de EE. UU.
diagrama de pines
4 PIN IEEE1394 (Alimentación Salida)
PIN Nombre Descripción 1 TPB- cable trenzado B - 2 TPB+ cable trenzado B + 3 TPA- cable trenzado A - 4 TPA+ cable trenzado A +
Cable externo Shell Blindado
6 PIN IEEE1394 (con alimentación)
PIN Nombre Descripción 1 C.C. actual No regulado, 30 V sin carga 2 Corriente de tierra Tierra 3 TPB- Cable Cable Cable B - 4 TPB+ Cable Cable B + 5 TPA- Cable Cable A - 6 TPA+ Cable Cable A +
Cable externo Shell Blindado
• Arquitectura de alto rendimiento. IEEE 1394b reduce los retrasos en el protocolo de enlace gracias a 8B10B (un código de codificación de 8 bits a 10 bits desarrollado por IBM que permite suficientes transiciones de reloj, codificación de señales de control y detección de errores. El código 8B10B es similar al 4B5B de FDDI, que no fue adoptado debido al bajo balance de CC), lo que reduce la distorsión de la señal y aumenta la velocidad de transferencia. Por lo tanto, proporciona una mejor experiencia de usuario.
• No importa cómo conecte sus dispositivos, FireWire 800 funciona perfectamente. Puede, por ejemplo, incluso conecte dispositivos FireWire 800 a su Mac en ambos extremos para mayor seguridad durante eventos en vivo.
• Compatibilidad al revés. Los fabricantes han adoptado FireWire para una amplia variedad de dispositivos, incluidas cámaras de video digitales, discos duros, cámaras digitales, audio profesional, impresoras, escáneres y dispositivos de entretenimiento. Los cables adaptadores para el conector de 9 patillas FireWire 800 le permiten utilizar productos FireWire 400 en el puerto FireWire 800. FireWire 800 comparte las funciones revolucionarias de FireWire 400.
• Opciones de conexión flexibles. Conecte hasta 63 computadoras y dispositivos en un solo bus; incluso puede compartir una cámara entre dos Mac o PC.
Cable utilizado en conexiones IEEE 1394
Conexiones de computadora Firewire
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 130
• Distribución en obra. FireWire es esencial para las aplicaciones de audio y video donde un cuadro retrasado o desincronizado arruina el trabajo. FireWire puede garantizar una entrega de datos perfectamente sincronizada.
• • Conducido por autobús. Mientras que USB 2.0 permite
Para dispositivos simples y lentos que usan hasta 2,5 W, como un mouse, los dispositivos habilitados para FireWire pueden entregar o consumir hasta 45 W, más que suficiente para discos duros de alto rendimiento y baterías de carga rápida.
• Conexiones plug-and-play. Todo lo que tienes que hacer es conectar un dispositivo para que funcione.
Ventajas de firewire
• Alcanzan una velocidad de 400 megabits por segundo. segundo. • Es hasta cuatro veces más rápido que una red Ethernet 100Base-T y 40 veces más rápido
en lugar de una red Ethernet 10Base-T. • Admite la conexión de hasta 63 dispositivos con cables de longitud máxima de 425 cm. • No es necesario deshabilitar un escáner o unidad de CD antes de conectar o
sáquelo y ni siquiera necesita reiniciar su computadora. • Los cables FireWire son muy fáciles de conectar: no requieren
dispositivos, interruptores DIP, tornillos, cerraduras de seguridad o terminadores. • FireWire funciona con Macintosh y PC. • Firewire 400 transmite datos a través de cables de hasta 15 pies de largo. a través de fibras
óptica profesional, FireWire 800 puede distribuir información a través de cables de hasta 100 metros, lo que significa que podría grabar ese CD en un campo de fútbol cada diez segundos. Ni siquiera necesita una computadora o nuevos dispositivos para alcanzar estas distancias. Siempre que los dispositivos estén conectados a un concentrador FireWire 800, puede conectarlos mediante un cable de fibra óptica de alta eficiencia.
Aplicaciones FireWire
procesamiento de videos digitales
El procesamiento de video digital con FireWire permitió una revolución en la producción de video de escritorio. La integración de FireWire en videocámaras económicas de gama alta (las dos rara vez van juntas) permite la creación de videos profesionales en Macintosh o PC. Sin costosas tarjetas de captura de video y estaciones de trabajo con dispositivos SCSI de alto rendimiento. FireWire le permite grabar video directamente desde nuevas videocámaras digitales con puertos FireWire incorporados y desde sistemas analógicos a través de convertidores de audio y video a FireWire.
Red IP sobre FireWire
Como explica Apple, “con este software instalado, los protocolos IP existentes, incluidos AFP, HTTP, FTP, SSH, etc., se pueden usar entre computadoras Macintosh y periféricos. En todos los casos, Rendezvous se puede usar para configuración, resolución de nombres, etc. . y descubrimiento". Si añadimos la posibilidad de usar conexiones FireWire para crear redes TCP/IP con las características de FireWire 2 (FireWire 800), tenemos muy buenas razones por las que Apple está recuperando rápidamente la atención de los fabricantes de periféricos en términos de
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 131
satisface las necesidades de los usuarios de aplicaciones que requieren un alto ancho de banda en las redes locales, como todas las relacionadas con el video digital. Por no hablar de entrar en un nuevo mercado potencial.
Puerto paralelo:
Un puerto paralelo es una interfaz entre una computadora y un dispositivo periférico cuya característica principal es que los bits de datos viajan juntos, enviando un byte completo o más a la vez. Es decir, se implementa una ruta o cable físico para cada bit de datos que forma un bus.
25 PIN D-SUB Hembra no PC.
El cable paralelo es la conexión física entre el puerto paralelo y el dispositivo periférico. En un puerto paralelo habrá una serie de bits de control en caminos separados que van en ambas direcciones en caminos diferentes.
A diferencia del puerto paralelo, el puerto serie envía datos poco a poco por el mismo cable.
El puerto paralelo más conocido es el puerto de impresora (que se ajusta más o menos al estándar IEEE 1284, también llamado tipo Centronics) que destaca por su sencillez y salida de 8 bits. Se ha utilizado principalmente para conectar impresoras, pero también se ha utilizado para programadores de EPROM, escáneres, interfaces de red Ethernet de 10 MB, unidades ZIP y superdisk, y para la comunicación entre dos computadoras (MS-DOS está portado en ROM versión 5.0 a 6.22). .programa para apoyar estas transferencias).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 132
El puerto paralelo en las computadoras, según el estándar Centronic, consta de un bus de comunicación bidireccional con 8 bits de datos, además de un conjunto de líneas de protocolo. Las líneas de comunicación tienen un contenedor que contiene el último valor escrito en ellas hasta que se escriben nuevos datos. Las propiedades eléctricas son:
• Alta tensión: 3,3 o 5 V. • Baja tensión: 0 v. • Corriente máxima de salida: 2,6 mA. • Corriente máxima de entrada: 24 mA.
El sistema operativo administra las interfaces del puerto paralelo con los nombres LPT1, LPT2 y así sucesivamente, las direcciones base de los dos primeros puertos son:
• LPT1 = 0x378. • LPT2 = 0x278
La estructura consta de tres registros: control, estado y datos.
• El registro de datos, que consta de 8 bits, es bidireccional. Su dirección en LPT1 es 0x378.
• El registro de estado es un registro de entrada de información de 5 bits, su dirección en LPT1 es 0x379.
• El registro de control es un registro bidireccional de 4 bits con un bit de configuración que no tiene conexión externa, su dirección en LPT1 es 0x37A.
El estándar 1284 define 5 formas de transmitir datos. Cada tipo proporciona un método de transmisión de datos de la computadora al periférico, viceversa (Periférico-Computadora), o bidireccional. Las condiciones son:
• Ordenador - Periféricos: Modo de compatibilidad: "Centronics" en modo predeterminado. • Periféricos - Computadora r: Modo byte: 8 bits a la vez usando líneas de datos, algunos
A veces puede actuar como una puerta de enlace de dos vías. • Bidireccional • EPP: Puerto paralelo extendido, utilizado principalmente por dispositivos periféricos como: CD-ROM,
cintas, discos duros, adaptadores de red, etc. excluyendo impresoras. • ECP: puerto de capacidad extendida, utilizado principalmente por escáneres e impresoras avanzadas.
la generación.
Vista de puertos paralelos (macho y hembra)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 133
Modo predeterminado: (Unidireccional)
Esta función define los pasos que la mayoría de las computadoras deben seguir al transferir datos a una impresora. Se le conoce con el nombre de 'Centronics'. Los datos se colocan en la línea a enviar y se comprueba el estado de la impresora para confirmar que no está OCUPADA. Finalmente, el software genera un pulso en la línea STROBE para dejar de enviar datos a la impresora. Pasos en la fase de transmisión:
1. Escriba los datos en el registrador de datos.
2. El programa lee el registro de estado para confirmar que la impresora no está OCUPADA.
3. Si no está ocupado, escribe en el registro de control para habilitar la línea STROBE.
4. Escriba en el registro de control para dejar de presionar la línea STROBE.
Para obtener 1 byte de información, se necesitan 4 instrucciones de E/S y tantas instrucciones adicionales como sea necesario. El efecto neto de esto es limitar los recursos de ancho de banda del puerto al orden de 150 Kbytes por segundo.
Este ancho de banda es suficiente para la comunicación punto a punto con muchas impresoras, pero está muy limitado por los adaptadores LAN de bolsillo, los discos duros portátiles y las nuevas generaciones de impresoras láser. Por supuesto, esta función es solo para el canal directo y debe combinarse con un canal inverso para obtener un canal bidireccional completo.
Se incluye para admitir la amplia variedad de periféricos e impresoras instalados.
Muchos controladores de E/S integrados han implementado una función que, aunque es compatible con ella, utiliza un búfer FIFO para la transferencia de datos. Se conoce como "Fast Centronics" o "Modo FIFO de puerto paralelo". Las velocidades que se pueden alcanzar con él son superiores a los 500 Kbytes por segundo. segundo, pero no descrito en el estándar IEEE 1284.
Función EPP (Puerto Paralelo Mejorado):
El protocolo EPP fue desarrollado originalmente por Intel, Xircom y Zenith Data Systems como una forma de hacer un puerto paralelo de alta resolución totalmente compatible con el puerto paralelo estándar. Intel implementó esta función en el procesador 386SL.
El protocolo EPP ofreció muchas ventajas a los fabricantes de periféricos que utilizan puertos paralelos y muchos de ellos lo adoptaron rápidamente. Una asociación de 80 fabricantes se unió para desarrollar este protocolo, esta asociación se denominó Comité EPP. Este protocolo se desarrolló antes de la aparición del estándar IEEE 1284, por lo que hay poca diferencia entre el EPP anterior y el nuevo EPP posterior al estándar.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 134
El protocolo EPP realiza cuatro ciclos de transferencia:
1. Ciclo de escritura de datos 2. Ciclo de lectura de datos 3. Ciclo de escritura de direcciones 4. Ciclo de lectura de direcciones
Los bucles de datos están destinados a transferir datos tanto a la computadora como al equipo periférico. Los bucles de direcciones se utilizan para transportar direcciones, canales, comandos e información de control. La siguiente tabla describe las señales EPP y las señales SPP relacionadas.
NOMBRE DE LA SEÑAL SPP Entrada/Salida DESCRIPCIÓN
IMPRESIÓN ESTROBOSCÓPICA La inactividad indica una operación de escritura. Activo un círculo de lectura.
AUTOFEED DATASTB OUT Inactivo Operación de lectura o escritura de datos en curso.
SELECTIN ADDRSTB OUT Operación de lectura o escritura de dirección inactiva en curso.
INIT RESET OUT Reset periférico inactivo
ACK INTR IN El dispositivo externo genera una interrupción a la computadora
OCUPADO ESPERA EN Inactivo muestra OK para iniciar el ciclo
Encendido indica OK para terminar el ciclo
D[8:1 AD[8:1 BI-DI Direcciones y flujo de datos bidireccional
PE IN personalizado Diferentes usos en función de los periféricos
SELECCIONA ENTRADA personalizada Diferentes usos dependiendo de las regionales
Custom ERR IN Diferentes usos según periféricos
Fases de transmisión del ciclo de registro de datos:
1. El programa realiza un ciclo de escritura de E/S en el puerto 4 (Puerto de datos EPP). 2. La línea WRITE indica la salida de datos al puerto paralelo. 3. DataStrobe está habilitado mientras que el canal WAIT está deshabilitado. 4. El puerto de identificación regional. 5. DataStrobe se apaga y finaliza el ciclo EPP. 6. El ciclo de E/S ISA finaliza. 7. El canal WAIT se apaga para indicar que puede comenzar el siguiente ciclo.
Una de las características más importantes es que la transferencia de datos ocurre en un ciclo de E/S ISA. El resultado es que un sistema que utiliza el protocolo EPP para la transmisión de datos puede mejorar las tasas de transmisión de 500K a 2Mbytes por segundo. En segundo lugar, los periféricos con puertos paralelos pueden funcionar con la misma eficiencia que un periférico conectado directamente a la red.
En la figura anterior, el canal DataStrobe se puede conectar porque el canal WAIT está deshabilitado, el canal WAIT está deshabilitado en respuesta a la conexión de un canal DataStrobe, un canal DataStrobe está deshabilitado en respuesta a la desconexión de un canal WAIT. Un canal WAIT se activa en respuesta a la desactivación de un canal DataStrobe para que el periférico pueda controlar el tiempo de inicio necesario para su funcionamiento. Esto se hace de la siguiente manera: el tiempo de inicialización es el que
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 135
va desde la habilitación del canal DataStrobe hasta la desactivación del canal WAIT, los periféricos se encargan de gestionar este tiempo.
Cuando comience la transmisión, se activará el canal DataStrobe o el canal AddStrobe según el estado de la señal WAIT. Esto significa que el dispositivo externo no puede esperar el inicio de un ciclo con el canal WAIT deshabilitado.
Modo ECP (puerto de capacidad extendida):
El protocolo de puerto de capacidad extendida, o ECP, fue propuesto por Hewlett Packard y Microsoft como una forma avanzada de comunicación entre dispositivos externos, como escáneres e impresoras. Al igual que el protocolo EPP, ECP proporciona comunicación bidireccional de alta resolución entre el adaptador de PC y el equipo periférico.
El protocolo ECP proporciona los siguientes ciclos en ambas direcciones:
1. Ciclos de datos 2. Ciclos de comandos
Las características clave de ECP incluyen RLE (Codificación de longitud de ejecución) o compresión de datos informáticos, FIFO para canales directos e inversos y DMA.
La función RLE mejora la compresión de datos en tiempo real y puede lograr una mayor compresión de datos de 64:1. Esto es especialmente útil para impresoras y escáneres que transfieren una gran cantidad de imágenes y tienen largas tiradas de datos idénticos.
El canal de dirección difiere ligeramente del EPP. El canal de direcciones está destinado a ser utilizado para abordar múltiples sistemas lógicos con un solo sistema físico. Piense en esta idea como un nuevo sistema todo en uno, como un fax/impresora/módem. Con este protocolo, los datos se pueden enviar a la impresora y al módem al mismo tiempo.
Pasos en la fase de puesta en marcha:
1. La computadora coloca los datos en las líneas de datos, inicia un ciclo de datos que activa HostAck.
2. La computadora deshabilita HostClk para indicar datos válidos. 3. El dispositivo externo reconoce la computadora activando PeriphAck. 4. La computadora activa HostClk. Este es el punto que debe usar para cerrar los datos.
regional. 5. El periférico apaga PeriphAck, indicando que está listo para recibir el siguiente
byte. 6. El ciclo se repite, pero en un ciclo de comando ya que HostAck está deshabilitado.
La siguiente tabla describe las señales de este protocolo:
NOMBRE DE LA SEÑAL SPP Entrada/Salida DESCRIPCIÓN
STROBE HostClk OUT Se usa con PeriphAck para enviar datos o direcciones hacia adelante.
AUTOFEED HostAck OUT Proporciona datos de comando y estado en la dirección de avance. Usado con transportes PeriphClk
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 136
datos en sentido contrario.
SELECTIN 1284Active OUT Cuando la computadora está en modo de 1284 transmisión, se activa.
INIT ReverseRequest OUT Deshabilitar para invertir el canal.
ACK PeriphClk IN Se usa con HostAck para transferir datos en la dirección opuesta.
REGISTRARSE PeriphAck EN
Se utiliza junto con HostClk para reenviar datos o información de direcciones. Proporciona estado de comando y datos en la dirección opuesta.
PE AckReverse IN Deshabilitado para reconocer la solicitud de inversión.
SELECCIONE Xflag IN Banderas de extensión.
ERROR PeriphRequest IN Deshabilitado por el periférico para indicar que es posible el transporte inverso.
Datos[8:1 Datos[8:1 BI-DI] Se utiliza para enviar datos entre los periféricos y la computadora.
Cuando HostAck está habilitado, indica que se está produciendo un ciclo de datos. Cuando HostAck está deshabilitado, se ejecuta un ciclo de instrucciones donde los datos representan un cálculo RLE o una dirección de canal. El bit 8 del byte de datos se usa para indicar un RLE, si el bit 8 es cero, los bits 1 a 7 representan un cálculo de la longitud de la cadena de transmisión, si el bit es 1, los bits 1 a 7 representan el control del canal.
Aquí veremos el proceso de transferencia inversa, con las diferencias entre el protocolo ECP y EPP, con el software EPP puedes combinar operaciones de lectura y escritura sin problemas. Con el protocolo ECP, los cambios de dirección de datos deben negociarse, la computadora debe solicitar la transmisión en el canal inverso al deshabilitar el canal ReverseRequest y luego esperar a que el dispositivo externo reconozca la señal al deshabilitar AckReverse. Solo entonces puede tener lugar la transmisión de datos de canal inverso.
Pasos en la fase de transmisión inversa:
1. La computadora solicita la transmisión en el canal inverso desactivando ReverseRequest. 2. El periférico señala que acepta continuar deshabilitando AckReverse. 3. Los periféricos colocan datos en líneas de datos e indican un ciclo de datos activando
PeriphAck. 4. Periférico deshabilita PeriphClk para indicar datos válidos. 5. La computadora reconoce la señal activando HostAck. 6. PeriphClk El equipo periférico. Esta ruta debe usarse para almacenar los datos.
ORDENADOR PERSONAL. 7. La computadora apaga Host.Ack para indicar que está lista para el siguiente byte. 8. El bucle se repite, pero esta vez es un bucle de comando porque PeriphAck está deshabilitado.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 137
Ranura para placa base y gabinete:
En esta sección, analizaremos la ubicación de la placa base en el gabinete y sus conexiones (cables que se conectan al frente de la computadora).
Aquí insertaremos los cables provenientes del gabinete en las funciones:
• HDD LED (luz que indica cuando el disco duro está funcionando) • Power LED (luz que indica que la computadora está encendida) • Altavoz (toma para el altavoz interno) • Botón Power (Encendido) • Botón Reset (Reiniciar)
Para una instalación adecuada, consulte el manual de su placa base.
Sección de enchufe del gabinete
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 138
Líneas de ruptura:
Resumen
Una IRQ ("Solicitud de interrupción") es una señal de un dispositivo de hardware (por ejemplo, un periférico) para indicar al procesador que algo requiere su atención inmediata. se le pide al procesador que suspenda las acciones que está tomando para cumplir con la solicitud.
Señalamos que las interrupciones juegan un papel fundamental, principalmente en el funcionamiento de los dispositivos de E/S, ya que les permiten enviar estas solicitudes a la CPU. Sin ellas, el sistema tendría que verificar constantemente la actividad del dispositivo, pero las interrupciones permiten que los dispositivos permanezcan en silencio hasta que requieran la atención del procesador. ¿Te imaginas un sistema telefónico en el que tienes que descolgar periódicamente el auricular para ver si alguien te está llamando?
Veremos que estas solicitudes pueden ser generadas no solo por dispositivos de hardware, sino también por programas, e incluso en condiciones especiales (error general) por el propio procesador. Resumimos que hay tres posibles razones para estas solicitudes: hardware, software y procesador.
principio de operación
Cuando un dispositivo solicita la atención del procesador, es para hacer algo. Este "algo" se conoce como un servicio. controlador o administrador de interrupciones, ISR ("Rutina de servicio de interrupción"). En cualquier caso, siempre se trata de ejecutar un programa que reside en algún lugar de la RAM o ROM BIOS. Resulta que las direcciones iniciales de estos programas, conocidas como vectores de interrupción, se copian en una matriz 1024
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 139
Bytes cargados al principio de la memoria del usuario (direcciones 0000h a 0400h) durante el proceso de inicio del sistema, por lo que estas rutinas también se conocen como servicios BIOS.
Esta tabla se denomina Tabla de vectores de interrupción IDT ("Tabla de descripción de interrupciones") y sus 1024 bytes pueden almacenar 256 vectores de 4 bytes. Es decir, los vectores de interrupción son punteros de 32 bits, numerados del 0 al 255, que apuntan a las direcciones donde comienza la rutina de manejo de interrupciones.
Como veremos a continuación, el diseño de la PC solo permite 16 interrupciones diferentes, por lo que puede parecer extraño que se proporcionaran 256 arreglos para atenderlas. La razón es que, además de los propios servicios BIOS, se cargan las direcciones de inicio de otras rutinas del sistema operativo, los llamados "servicios del sistema". Incluso es posible cargar direcciones para rutinas específicas del usuario.
Cuando Intel diseñó el 8088, separó estos vectores y mantuvo los 5 principales para uso interno del procesador. Luego puso 27 más en uso exclusivo, aunque no reveló un uso específico para ninguno de ellos. A partir de aquí, los vectores 32 a 255 estaban disponibles. La cifra resultante se muestra en la tabla adjunta.
Vector
Uso hexadecimal de diciembre
0 0 Error: División por cero
1 1 Excepciones de depuración (pasos)
2️⃣ Parada sin mascarilla
3 3 Punto de interrupción (instrucción INT)
4 4 Desbordamiento. Se utiliza cuando se desborda un cálculo numérico. declaración INTO
5 5 (reserva)
6 6 Código de comando no válido
7 7 El coprocesador no está disponible
8 8 Doble falta
9 9 (reserva -Rutina de atención del teclado-)
10A TSS inválido
11 B El segmento no está disponible
12 Excepción de pila C
Protección General 13D
14 Error de página og
15 F (con reserva)
16 1A Error del coprocesador
17-31 1B-1F (con reserva)
32-255 20-FF Disponible para vacaciones cubiertas
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 140
Aunque las interrupciones 0 a 31 estaban teóricamente limitadas, IBM y Microsoft usaron algunas de ellas sin respetar las pautas de Intel. En particular, IBM y Microsoft usaron algunos para los servicios de BIOS. Es importante destacar que la especificación original, aunque ampliada, se conserva para los 31 descansos originales. Esto hace posible cargar un sistema PC-DOS 1.0 en una máquina Pentium.
El "modus operandi" es el siguiente: una vez que se recibe la solicitud de interrupción, el procesador finaliza la instrucción que está ejecutando. guarda el contenido de los registros; desactiva el sistema de interrupción. ejecuta el "servicio" y vuelve a su ubicación de ejecución. El servicio generalmente finaliza con un comando IRET ("Retorno de interrupción") que restablece el contenido de los registros y vuelve a habilitar el sistema de interrupción. En cierto modo, el proceso es similar a lo que ocurre cuando se produce una llamada de función en el código del programa.
En la sección anterior mencionamos brevemente el proceso de "recepción" de un informe, pero hay una pregunta: ¿cómo se recibe el informe? Esperamos que estas solicitudes puedan ser generadas por software o incluso por el procesador, lo que nos lleva al hecho de que las únicas recibidas (desde el exterior) son en realidad las llamadas interrupciones de hardware (procedentes de dispositivos externos al procesador). ). Antes de describir brevemente la ruta hasta que la CPU recibe la solicitud, espero que haya tres tipos de elementos de apoyo para administrarla:
• Algunas líneas específicas (IRQ) en el bus de control
• Controlador de interrupciones (PIC). Un procesador específico que realiza un preprocesamiento de solicitudes antes de entregar la señal a la CPU.
• Algunos pines específicos en el procesador.
El resumen del proceso es el siguiente: Un periférico, tarjeta o dispositivo necesita atención. Para ello, pone una tensión baja en una de las líneas IRQ del bus de control (asignadas al mismo). La señal es capturada por el PIC, que la procesa, la clasifica y envía una señal a uno de los pines del procesador. Luego, el procesador asume que ha sido notificado y pregunta qué tipo de excepción manejar. En respuesta, el PIC asigna un número de servicio (0-256) en forma de octeto que se coloca en el bus de datos, lo que nos lleva al punto de inicio del proceso.
Para asignar el número de servicio a una de las 16 solicitudes de IRQ, el PIC realiza un procedimiento específico ("Rutina de manejo de interrupciones") basado en los datos de programación iniciales y el estado actual del propio sistema de interrupciones. Por ejemplo, el servicio de una interrupción puede estar en curso, pero la rutina se suspende temporalmente porque se solicitó otra interrupción de mayor prioridad, o tal vez se recibió otra interrupción del mismo periférico antes de que se atendió la anterior, etc.
líneas de solicitud de interrupción
El bus de control tiene líneas dedicadas para el sistema de interrupción. En el PC XT hay 8, numerados del 0 al 7, aunque los dos primeros corresponden al temporizador y
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 141
teclado, dejando sólo 6 líneas para otros dispositivos, que aparecen como tales en el bus de control (IRQ2-IRQ7). Del modelo AT se agregaron otras 8 líneas numeradas de la 8 a la 15 a través de otro procesador PIC, aunque la tecnología utilizada requería que se publicara en la línea IRQ2, por lo que esta línea se dedica a manejar las interrupciones del segundo controlador a la línea. 9 de este último, la línea 8 está dedicada al reloj en tiempo real, un dispositivo que estaba ausente en los modelos XT.
Aunque internamente se atienden 16 líneas, no todas ellas están en contacto con los enlaces de bus externos. Estos son los marcados con un asterisco (*) en la siguiente tabla. El motivo de esta ausencia en las conexiones es que son asignaciones fijas y nadie más que ciertos dispositivos instalados en la propia placa necesitan utilizarlas. Específicamente, la línea NMI se asigna al verificador de paridad de memoria. La línea 0 se asigna al temporizador del sistema y la línea 1 al chip que controla el teclado (dispositivos que pueden requerir atención urgente del procesador). Es común llamar IRQx a quienes tienen un número de extensión en el bus.
En teoría, el resto de las líneas podrían mapearse a cualquier dispositivo nuevo, pero en la práctica algunas están reservadas para dispositivos estándar. Por ejemplo, IRQ3 casi siempre se asigna al puerto serial COM2 e IRQ4 a COM1. IRQ6 para la unidad de disquete estándar e IRQ7 para el puerto de impresora LPT1. La Tabla 1 muestra las tareas clásicas para XT y AT.
Tabla-1 Nombre Int (hex) XT: Descripción AT: Descripción
NMI --- Paridad* Paridad* 0 08 Temporizador* Temporizador* 1 09 Teclado* Teclado* IRQ2 0A Interrupciones reservadas 8 a 15 (PIC#2) IRQ3 0B Puertos serie COM2/COM4 Puertos serie COM2/COM4 IRQ4 0C Puertos serie Puerto COM1 COM3 COM1 /COM3 IRQ5 0D Impresora de disco duro secundario LPT2 IRQ6 0E Disquete IRQ7 0F Impresora principal LPT1 Impresora principal LPT1 8 70 N/A Reloj en tiempo real* 9 71 N/A Redirigir a IRQ02* 7IRQ02 N/A Aplicado Sin asignar IRQ12 74 N / A Ratón PS2 13 75 N/A Coprocesador 80287* IRQ14 76 N/A Contr. Unidad principal IDE IRQ15 77 N/A Contr. unidad IDE secundaria
Al instalar un dispositivo de E/S que pueda requerir la atención del procesador, se le debe asignar una IRQ adecuada. En otras palabras, cuando se necesita atención, debe enviar una señal a la línea IRQ designada. Originalmente, esta tarea se realizaba manualmente a través de puentes ("Puentes") en la placa o dispositivo, pero actualmente
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 142
La selección se puede hacer por software. Los dispositivos son plug and play PnP ("Plug and play").
Vista interna del diseño de IRQ
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 143
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 144
Aquí está la distribución de las líneas IRQ en una computadora típica con Windows XP.
Los usuarios de Windows 98 pueden comprobar las asignaciones de IRQ para los distintos dispositivos del sistema mediante el programa msinfo032.exe. Generalmente en C:\Program Files\Common Files\Microsoft Shared\MSINFO
Uso de la IRQ
0 Temporizador del sistema 1 Teclado físico estándar 101/102 o MS 2 Controlador de interrupción programable 3 Puerto IBM ThinkPad Puerto Fast IR 4 Puerto de comunicación (COM1) 5 Dispositivo de juego Crystal SoundFusion(tm) 6 Controlador de disquete estándar 71 Puerto de impresora 8 (L System CMOS / Reloj en tiempo real 9 (gratis) 10 (gratis) 11 Puntero IRQ para manejo de PCI
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 145
11 Marcador de IRQ de manejo de PCI 11 Marcador de IRQ de manejo de PCI 11 Marcador de IRQ de manejo de PCI 11 Controlador de host universal Intel 82371AB/EB PCI hasta USB 11 Acelerador de audio PCI Crystal SoundFusion(tm) 11 Intel Modem Mobile (SPR) 11 Intel Lucent Win1. Adaptador combinado 11 Texas Instruments PCI-1450 CardBus-controller 11 Texas Instruments PCI-1450 CardBus-controller 11 RAGE MOBILITY-M AGP (αγγλικά) 12 PS/2-kompatibel museport 13 Numerisk Dataprocessor Standard-diskler14 til Bus Mastering IDE-σκληρός δ ίσκος
controlador PIC
Las solicitudes de interrupción de hardware de la computadora son manejadas por un chip conocido como PIC # 1 ("Controlador de interrupción programable"). Originalmente era un 8259A que podía manejar 8 solicitudes (IRQ0/IRQ7), pero pronto quedó claro que era un número demasiado pequeño, por lo que en 1984 IBM agregó otro controlador PIC#2 al Modelo AT que podía manejar solicitudes 8259A de IRQ8 a IRQ15, aunque las interrupciones utilizables resultantes no son 16 como cabría esperar, por las razones mencionadas en la sección anterior.
nivel de prioridad
El PIC tiene 16 niveles de prioridad, numerados del 0 al 15, de modo que el número más bajo aparece antes que el número más alto. La distribución en cada nivel es la siguiente:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 146
Asignación de nivel. Asignación de nivel. Asignación de nivel. Asignación de nivel.
0 NMI 1 IRQ0 2 IRQ1 3 IRQ8
4 IRQ9 5 IRQ10 6 IRQ11 7 IRQ12
8 IRQ13 9 IRQ14 10 IRQ15 11 IRQ3
12 IRQ4 13 IRQ5 14 IRQ6 15 IRQ7
Como puede verse, la prioridad más alta se le da a las interrupciones no enmascarables (NMI), que se discutirán más adelante. A continuación, se reparan IRQ0 e IRQ1. renderizado como vimos en el temporizador del sistema y el teclado (el temporizador no puede ser interrumpido por nadie porque sería una pérdida de tiempo). Las solicitudes IRQ8 a IRQ15 del controlador esclavo se atienden, heredando la prioridad del IRQ2 del que está suspendido (en realidad no hay IRQ2). Luego se escucha IRQ3 a IRQ7 desde PIC#1. Las solicitudes de menor prioridad son las del controlador de disquete estándar (IRQ6) y el puerto de impresora LPT1 (IRQ7).
Por supuesto, el 8259A es un chip de 28 pines, 8 de los cuales están conectados a las líneas IRQ0-IRQ7. ocho para el bus de datos (D0-D7), una entrada INTA ("Reconocimiento de interrupción") y una salida INTR ("Solicitud de interrupción"). Además de otras ayudas como tensión de alimentación y puesta a tierra. Como veremos a continuación, cuando el 8259A recibe una señal IRQ, activa la señal INTR recibida por el procesador. Cuando responde con un INTA, coloca un byte en el área 0/256 en el bus de datos, que el procesador identifica como el número de interrupción.
Lógicamente, el PIC #1 responde a las direcciones 020h-021h, mientras que el PIC#2 responde a las direcciones 0A0h-0A1h. Cada PIC tiene tres registros de 1 byte. IRR, ISR e IMR, que en conjunto gobiernan las decisiones de la unidad:
Registro de solicitud de detención de IRR ("Registro de solicitud de detención"). Cada bit en este registro controla el estado de una línea IRQ. Cuando se detecta una solicitud en una de estas líneas, el bit IRR correspondiente se establece en 1.
Registro de interrupción activa ISR ("Registro en servicio"). Cada bit indica si ya existe una interrupción en la línea correspondiente.
Registro de máscara de interrupción IMR ("Registro de máscara de interrupción"). Aquí nuevamente, cada bit corresponde a una línea IRQ e indica si se permite una interrupción de ese nivel en ese momento.
El PIC es un dispositivo complejo que realiza muchas tareas. Aquí hay una descripción general de ellos:
• Dado que existen múltiples dispositivos que pueden solicitar interrupciones, corresponde al PIC priorizarlas según el esquema dado en el punto anterior cuando existen múltiples IRQs simultáneas.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 147
• Después de enviar una solicitud de interrupción y el procesador responde que está listo para atenderla, debe enviar un número de interrupción (número de vector).
• Registra que se está procesando una interrupción. Cuando esto sucede, no envía más solicitudes desde el mismo dispositivo al procesador hasta que el procesador responde con una señal EOI ("Fin de interrupción") que indica que la rutina de servicio anterior se completó o puede aceptar otra interrupción.
• Puede ocultar selectivamente cualquiera de las 8 IRQ conectadas a él (como veremos más adelante, esta es la única forma de ocultar las interrupciones que no pueden cubrir).
El 8259A tiene varios modos de funcionamiento, uno de los cuales lo utilizan los diseñadores de PC. esta selección la hace el software en los primeros momentos. También se decide en este punto qué número de interrupción debe devolver el PIC en respuesta a las señales recibidas en las líneas IRQ.
Los puntos importantes a tener en cuenta son que, como ya se mencionó, es un dispositivo programable. que esta programación la realiza la BIOS durante la fase de arranque y que el PIC es parte fundamental del mecanismo de excepción del hardware.
procesador ben
Otro elemento que interfiere con el mecanismo de excepción son ciertos pines del procesador. Todos los miembros de la serie 8088 tienen dos pines, llamados INTR y NMI, para este servicio en particular. Se utilizan para manejar interrupciones enmascarables y no enmascarables respectivamente (nos referiremos a ellas inmediatamente). A su vez, el procesador utiliza ciertas señales en algunos de sus pines para generar un ciclo INTA ("Reconocimiento de interrupción"), que sirve para notificar al PIC que ha recibido la interrupción.
tipos de interrupción
Dependiendo de su origen, existen tres tipos de cortes de equipo: Cortes de hardware. interrupciones de software y excepciones del procesador.
Las interrupciones de hardware ocurren cuando un dispositivo necesita la atención del procesador y produce una señal eléctrica en la línea IRQ asignada. El controlador de excepciones PIC recopila y procesa esta señal antes de enviarla al procesador, lo que se puede hacer de dos maneras dependiendo de si el tipo de interrupción se puede cubrir o no.
La interrupción enmascarable significa que el procesador, bajo el control del software, puede aceptar o ignorar (enmascarar) la señal de interrupción. Para ello se envía una señal al pin INTR y el procesador responde o la ignora dependiendo del contenido de un bit (IF) en un registro (FLAGS) que puede activarse o desactivarse. En el primer caso, cuando se recibe la señal, el procesador completa la instrucción que estaba en curso y luego
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 148
responde con una combinación de señales en algunos de sus pines que componen una secuencia de dos señales INTA ("Reconocimiento de interrupción").
La primera señal es solo una advertencia. la segunda es una solicitud al PIC para colocar un byte con el número de interrupción en el bus de datos para que el procesador pueda localizar el servicio solicitado.
El valor recibido (0-255) se multiplica por 4 para calcular la dirección de vector correspondiente en la tabla de vectores de interrupción, que se realiza mediante un desplazamiento binario de dos posiciones a la izquierda. Luego, el procesador almacena los valores del registro de estado, el contador de programa (PC) y el segmento de código (CS) en la pila. borra el bit IF del registro de estado para que la interrupción no pueda ser interrumpida por una nueva interrupción enmascarable hasta que se habilite específicamente, y finalmente ejecuta el servicio.
La penúltima línea de la rutina de servicio es enviar una señal de fin de interrupción (EOI) para que el PIC pueda continuar enviando interrupciones. Luego, debe restaurar los registros a su estado original (que existía antes del bloqueo).
La señal de parada EOI ("Fin de parada") es la siguiente secuencia:
MOV DX, PIC0 MOV AL, EOI SALIDA DX, AL
La primera instrucción mueve el contenido de PIC0 al registro DX (PIC0 es el mnemónico para la dirección de puerto más baja A0 = 0).
El segundo mueve el valor EOI (mnemotécnico para el valor de 20h) al registro AL.
El tercero es una declaración de registro de puerto. escribe el contenido del registro AL (el valor EOI definido en la instrucción anterior) en el puerto que apunta al contenido del registro DX (definido en la primera instrucción).
Para facilitar el manejo de interrupciones, el 8088 y sus sucesores tienen algunas instrucciones específicas:
• Retorno de Interrupción IRET ("Retorno de Interrupción"). Obtiene el contador del programa de computadora de la pila. el segmento de código CS (que significa devolver el programa al punto de ejecución original) y el registro de estado FLAGS (que significa devolver los interruptores enmascarables a su estado original).
• CLI Clear Interrupt ("Borrar interrupción"); reinicia el registro IF y deshabilita las interrupciones enmascarables.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 149
• STI Es la instrucción opuesta ("Set Interrupt") que pone el registro IF a 1, habilitando las interrupciones enmascarables.
La idea importante a destacar es que el PIC asocia un número entre 0 y 255 a cada solicitud. Este número, conocido como número de interrupción, no debe confundirse con el número de línea de la IRQ que realizó la solicitud. El número de interrupción se utiliza para identificar el servicio a través de la tabla IDT. Después de que se ejecuta el servicio, las cosas deben permanecer como estaban para que el programa original continúe ejecutándose.
Una interrupción sin límite significa que el software no puede desactivar la interrupción. Estos tipos de interrupciones ocurren cuando se recibe una señal en el pin NMI ("Interrupción no enmascarable") del procesador. Están reservados para situaciones en las que la respuesta es crítica, por ejemplo, cuando se detecta un error de paridad de memoria. También es una prioridad más alta que las máscaras.
La única forma de ocultar estas interrupciones es a través de circuitos externos al procesador, por ejemplo, a nivel de PIC.
Cuando el procesador recibe una de estas instrucciones, no se genera ningún ciclo de reconocimiento de instrucción (INTA) y el procesador asigna un 2 como número de excepción.
el software está desconectado
Los procesadores Intel x86 y compatibles tienen una instrucción INT que permite que el software genere cualquiera de los 256 tipos de interrupción descritos anteriormente. El procedimiento seguido es exactamente el mismo que si se hubiera recibido una interrupción de hardware en el pin INTR, excepto que en este caso se conoce el tipo de interrupción y no se requiere ningún ciclo INTA. Por ejemplo, la instrucción INT 21 en lenguaje ensamblador llama a la interrupción 33d (21h), que en MS-DOS es la llamada a los servicios del sistema.
Este tipo de interrupciones tienen una prioridad más alta que el hardware (enmascarable y no enmascarable), por lo que si se recibe una interrupción de hardware mientras se ejecuta un software, esta última tendrá prioridad.
Este tipo de interrupción es utilizada tanto por el sistema operativo como por los programas de usuario que pueden configurar las suyas propias (recuerde que algunas de las 255 posiciones en la tabla de vectores de interrupción están desocupadas). Exactamente, las ubicaciones de IDT que apuntan a ubicaciones en el BIOS ROM (por encima de la dirección F0000h) se refieren a interrupciones relacionadas con los servicios del BIOS, mientras que las del área de memoria convencional se refieren a interrupciones instaladas por el sistema o los programas de aplicación.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 150
excepciones del procesador
Durante el funcionamiento del procesador, pueden ocurrir circunstancias extraordinarias. Es habitual citar como ejemplo el caso de la división por cero. En estos casos, el procesador lanza una excepción que se maneja como si fuera una interrupción de software, excepto que el número de interrupción asociado depende del tipo de excepción. En caso de división por cero, el número correspondiente es cero. Este fue el único tipo de excepción del procesador en el 8088, pero en los sucesivos modelos de la serie x86 y Pentium, esta opción se amplió gradualmente.
Cola
Las interrupciones se priorizan, por lo que si ocurren dos al mismo tiempo, se tiene en cuenta la de mayor prioridad. El orden en que se sirven es el siguiente:
1.: Exclusiones del procesador.
2.: El software falla.
3.: El material se rompe sin máscara.
4.: El hardware enmascarable está desconectado.
cancelar la configuración
Las líneas IRQ también se pueden configurar o cambiar en algunos casos desde el setup, estas imágenes muestran el menú de configuración:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 151
Desarrollo
El estándar PnP
El sistema de interrupción es una excepción en términos de evolución. Desde la introducción del segundo controlador 8259A en 1984, el diseño no ha cambiado. El motivo es que cambiarlo supondría un cambio muy drástico en la arquitectura informática, con un parque de millones de sistemas y periféricos instalados con millones de programas y sistemas operativos funcionando, que no podrían ser portados "tal cual" a las nuevas máquinas.
Se puede decir que desde su nacimiento, la computadora ha tenido algunos defectos inherentes, que se pueden resumir en la falta de líneas de acceso directo a memoria DMA. Líneas de interrupción IRQ. direcciones de puerto y memoria convencional. El resultado fue que la instalación de los primeros sistemas era una pesadilla para los instaladores que tenían que configurar manualmente los dispositivos instalados insertando y quitando molestos "Puentes". Sin embargo, el resultado a menudo era que el nuevo dispositivo simplemente no podía instalarse porque los canales DMA seleccionables o las líneas IRQ ya estaban ocupadas por otros.
Como resultado de estas deficiencias, en una conferencia de hardware de Windows en marzo de 1993, Microsoft e Intel propusieron un nuevo estándar que intentaba simplificar el problema. Conocido como Plug and Play (PnP), plug and play (solo el "sueño" de los instaladores en ese momento) se basa en varias suposiciones. El principal de ellos, los dispositivos eran configurables por software a través de un programa especial de "Configuración". Además, tanto el hardware como el software (controladores de dispositivos cargados en el sistema) deben reconfigurarse dinámicamente para adaptarse a los cambios de configuración. Por ejemplo, insertar o quitar un dispositivo PC-Card de un bus PCMCIA.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 152
compartir IRQ
La especificación PnP antes mencionada, si bien simplificaba las cosas, en realidad no resolvía el problema subyacente: la rareza de ciertas funciones, especialmente las líneas de ruptura. Entonces, cuando Intel desarrolló la interfaz PCI, Intel incluyó la capacidad para que estos dispositivos compartan la misma IRQ.
Se puede ver que los dispositivos PCI comparten IRQ11 e IRQ5. Como es habitual, los controladores IDE primario y secundario, identificados aquí como ide0 e ide1, utilizan IRQ14 e IRQ15. Los dispositivos identificados como eth0 y eth1 son los respectivos adaptadores de red. ttyS03 es un puerto serie cuyo UART es 16550A. Yenta se refiere al tipo de controlador de conector para dispositivos PCMCIA (es una computadora portátil que tiene este tipo de ranura).
Windows se bloquea
La descripción anterior corresponde a lo que sucede en el hardware o lo mismo en una aplicación que se ejecuta en modo real. es la descripción clásica del mecanismo de finalización de una aplicación en MS-DOS.
Señalamos que en los sistemas Windows, cada aplicación se ejecuta en una máquina virtual de realidad virtual, por lo que está más alejada del hardware que las aplicaciones que se ejecutan en modo real. En este caso, las aplicaciones interactúan con Virtual Device VD ("Virtual Devices") a través de Virtual Device Driver VxD.
Específicamente, el controlador PIC está virtualizado por VPICD ("Dispositivo PIC virtual"). Este es un controlador virtual proporcionado por defecto por Windows que simula las funciones del controlador de interrupción programable real. Esta simulación incluye duplicación de interrupciones en máquinas virtuales y simulación de E/S, por ejemplo, identificando cuándo una máquina virtual emite un EOI de "fin de interrupción".
Como en el funcionamiento real, al inicializar un controlador virtual VPICD, se crea un controlador de excepciones estándar para cada solicitud de interrupción (IRQ). Estos controladores determinan qué máquina virtual se verá afectada y con qué interrupción. También resuelven conflictos potenciales cuando varias máquinas virtuales intentan exponer la misma interrupción.
Cualquier interrupción no enmascarada durante el inicio de Windows se considera una interrupción global. Este tipo de interrupción se reflejará en la máquina virtual que se esté ejecutando en ese momento (a su vez, la MV puede o no ocultar esta IRQ).
Si una VM expone una IRQ que estaba enmascarada cuando se inició Windows, afirmará que posee esa interrupción y la IRQ se reflejará exclusivamente en su propia máquina (si otra VM intenta exponer esa interrupción, Windows eliminará la segunda máquina virtual y puede indicar la necesidad de reiniciar el sistema).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 153
Si otro VxD virtualiza una solicitud de IRQ, es su responsabilidad determinar qué VM recibirá la interrupción y resolver cualquier posible conflicto. Además, el controlador estándar virtual VPICD ya no admitirá esta IRQ.
acceso directo a memoria (DMA)
El acceso directo a la memoria (DMA) permite que ciertos tipos de componentes informáticos accedan a la memoria del sistema para leer o escribir independientemente de la CPU principal. Muchos sistemas de hardware utilizan DMA, incluidos los controladores de unidades de disco, las tarjetas gráficas y las tarjetas de sonido. DMA es una característica esencial en todas las computadoras modernas, ya que permite que los dispositivos de diferentes velocidades se comuniquen sin colocar una gran carga de interrupción en la CPU.
Una transferencia DMA consiste esencialmente en copiar un bloque de memoria de un dispositivo a otro. En lugar de que la CPU inicie la transferencia, la transferencia la realiza el controlador DMA. Un ejemplo típico es mover un bloque de memoria de una memoria externa a una memoria interna más rápida. Tal función no ocupa el procesador y, como resultado, se puede programar para realizar otras tareas. Las transferencias DMA son necesarias para aumentar el rendimiento de las aplicaciones que consumen muchos recursos.
Cabe señalar que si bien no se necesita la CPU para la transacción de datos, se necesita el bus del sistema (tanto el bus de datos como el bus de direcciones), por lo que existen diferentes estrategias para regular su uso, permitiendo que no sea completamente monopolizado por el DMA- el controlador.
Utilizado por el microprocesador para indicar en qué celda de memoria (o dispositivo de E/S) desea operar. El tipo de operación será de lectura o escritura, y los datos involucrados viajarán por el bus de datos.
IRQ 0 IRQ 1 IRQ 2 IRQ 3 IRQ 4 IRQ 5 IRQ 6 IRQ 7
IRQ 8 IRQ 9 IRQ 10 IRQ 11 IRQ 12 IRQ 13 IRQ 15 IRQ 15
Controlador principal
Para dispositivos de hardware
autobús de control
Controlador secundario
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 154
A través de él recorre la expresión binaria de la dirección de memoria a la que desea acceder el microprocesador. Tiene una dirección de flujo unidireccional desde el microprocesador a la memoria. Una vez que se encuentran los datos que faltan, se transferirán al microprocesador (o donde sea) a través del bus de datos.
Los dispositivos de E/S intercambian información con el microprocesador a través de los puertos de E/S. Cada puerto está asociado a un dispositivo específico y tiene una dirección que lo identifica.
El ancho de este bus también es una medida de la potencia del microprocesador, ya que determina la cantidad de memoria a la que puede acceder, es decir, la cantidad de espacio direccionable. El espacio de direcciones es el rango de valores discretos entre los que puede elegir el microprocesador. El número máximo de direcciones disponibles será de 2 a n, donde n es el número de líneas en el bus de direcciones.
unidad de E/S
• Cada controlador es responsable de un tipo específico de dispositivo.
• Según el controlador, se pueden conectar varios dispositivos al mismo controlador.
• El controlador es responsable de transferir datos entre el periférico que controla y el caché local. El tamaño del búfer varía de un controlador a otro y depende del dispositivo que controla.
Tres técnicas son posibles para las operaciones de E/S:
• E/S programada
• E/S a través de interrupciones
• DMA
E/S programada
Los datos se intercambian entre la CPU y la unidad de E/S. La CPU ejecuta un programa que controla directamente las operaciones de E/S, incluida la verificación del estado del dispositivo, el envío de comandos de lectura o escritura y la transferencia de datos. Cuando la CPU envía la orden, debe esperar hasta que se complete la operación de E/S. Si la CPU es más rápida, estará inactiva. La CPU es responsable de verificar periódicamente el estado de la unidad de E/S hasta que confirme que la operación se ha completado.
Por lo general, habrá muchos dispositivos de E/S conectados al sistema a través de módulos de E/S. Cada dispositivo tiene una identificación o dirección asociada. Cuando la CPU emite una instrucción de E/S, la instrucción contiene la dirección del dispositivo deseado.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 155
E/S a través de pausas
El problema con la E/S escalar es que la CPU debe esperar una cantidad significativa de tiempo para que esa unidad de E/S en particular esté lista para recibir o enviar datos. La CPU debe verificar constantemente el estado del módulo de E/S. El rendimiento del sistema se degrada.
Una alternativa es que después de enviar un comando de E/S, la CPU puede continuar realizando algún trabajo útil. El módulo de E/S interrumpirá la CPU para solicitar su servicio cuando esté listo para intercambiar datos. La CPU realiza la transferencia de datos y luego procede al preprocesamiento.
Se pueden distinguir dos tipos: E/S síncrona y E/S asíncrona.
• E/S síncrona: cuando finaliza la operación de E/S, se devuelve el control al proceso que la creó. La espera de E/S se realiza a través de una instrucción de espera que pone a la CPU en reposo hasta que se produzca otra interrupción. Las máquinas que no tienen esta directiva usan un bucle. Este ciclo continúa hasta que ocurre una interrupción que transfiere el control a otra parte del sistema operativo. Solo se procesa una solicitud de E/S a la vez. El sistema operativo sabe exactamente qué dispositivo interrumpe. Esta alternativa excluye el procesamiento de E/S concurrente.
• E/S asíncrona: Vuelve al programa de usuario sin esperar a que se complete la operación de E/S. Se requiere una llamada al sistema que permita al usuario esperar a que se complete la E/S (si es necesario). También debe realizar un seguimiento de las diversas solicitudes de E/S. Para ello, el sistema operativo utiliza una tabla que contiene una entrada para cada dispositivo de E/S (Tabla de estado del dispositivo).
• La ventaja de este tipo de E/S es un mayor rendimiento del sistema. Mientras se lleva a cabo la E/S, la CPU se puede utilizar para procesar o programar otras E/S. Dado que la E/S puede ser bastante lenta en comparación con la velocidad de la CPU, el sistema hace un mejor uso de las instalaciones.
Iniciar el modo de E/S
• Para iniciar una operación de E/S, la CPU actualiza los registros necesarios en el módulo de E/S.
• El módulo de E/S examina el contenido de estos registros para determinar el tipo de operación a realizar. Si por ej. encuentra una solicitud de lectura, el módulo de E/S comenzará a transferir datos desde el dispositivo a los búferes locales. Cuando se completa la transferencia, el módulo informa a la CPU que la operación se completó a través de una interrupción.
Suspender el tratamiento
Cuando un dispositivo de E/S completa una operación de E/S, ocurre la siguiente secuencia de eventos:
• El dispositivo envía una señal de interrupción al procesador
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 156
• El procesador completa la ejecución de la instrucción actual antes de responder a la interrupción.
• El procesador comprueba si hay interrupciones. Si es así, envía una señal de reconocimiento al dispositivo que lo creó.
• El operador debe prepararse para transferir el control a la rutina de interrupción. Debe guardar la información necesaria para reanudar el proceso actual en el momento en que se interrumpió. Almacena contenidos de registros, etc. en la pila del sistema.
• El procesador carga la dirección de inicio del manejador o servicio de interrupción deseado en la computadora.
• Después de cambiar la computadora, el procesador continúa con el siguiente ciclo de instrucción. Es decir, el control se transfiere a la rutina del servidor de vacaciones.
• Cuando finaliza el servicio de interrupción, los valores de registro se restablecen.
tabla de estado del dispositivo
Cuando la CPU recibe una interrupción que indica que se ha completado una operación de E/S, el sistema operativo debe saber a qué proceso pertenece. Para ello se mantiene una tabla de estado de los dispositivos. Cada entrada de la tabla contiene el tipo de dispositivo, su dirección y su estado (inactivo, ocupado, sin funcionar). Si el dispositivo está ocupado, el tipo de solicitud se almacena junto con otros parámetros en la tabla (lista).
Las funciones TYPEAHEAD son un esquema utilizado por algunos dispositivos que permiten a los usuarios "reenviar" la entrada de datos antes de que se necesiten. Cuando se produce el final de la interrupción de E/S, ningún proceso lo ha solicitado, por lo que se necesita un búfer para almacenar los caracteres iniciales hasta que algún programa los requiera. En general, se requiere un búfer para cada terminal de entrada.
DMA (acceso directo a memoria)
La E/S de interrupción, aunque es más eficiente que la E/S programada, también requiere la intervención de la CPU para transferir datos entre la memoria y la unidad de E/S.
Considere el siguiente ejemplo. Cuando se va a leer una línea desde una terminal, el primer carácter ingresado se envía a la computadora. Cuando el controlador recibe el carácter, interrumpe la CPU, que detecta la interrupción y continúa con el proceso que estaba realizando. Esto es posible cuando el dispositivo es muy lento en comparación con la CPU. Entre un carácter y otro, la CPU está procesando mucho. Pero, ¿qué sucede cuando trabajamos con dispositivos de E/S más rápidos? Tendríamos descansos frecuentes y perderíamos mucho tiempo.
Para evitar esto, se utiliza DMA para dispositivos de E/S de alta velocidad. El controlador de dispositivo transfiere un bloque de datos hacia o desde los búferes de almacenamiento en la memoria directamente sin intervención de la CPU. Solo hay una interrupción por bloque en lugar de una interrupción por byte (o palabras).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 157
Por ejemplo, un programa solicita una transferencia de datos. El sistema operativo busca un búfer disponible. El controlador DMA informa a sus registros de las direcciones de origen y destino y la duración de la transferencia. Esta actualización generalmente la realiza el controlador del dispositivo (rutina). El controlador DMA se actualiza mediante bits de control en un registro de control para iniciar la operación de E/S. Mientras tanto, la CPU puede realizar otras funciones. El controlador DMA interrumpe la CPU cuando se completa la transferencia. La CPU solo interviene al principio y al final de la transferencia.
Transferencias vía DMA.
Algunos dispositivos de E/S envían datos a la memoria más rápido de lo que puede manejar el microprocesador. El controlador Direct Memory Access (DMA) es un circuito integrado dedicado que puede enviar y recibir datos más rápido que el microprocesador. Los dispositivos como los discos ópticos y magnéticos utilizan este chip para acceder a la memoria del sistema.
El controlador de acceso directo a la memoria (DMA) toma prestados datos, direcciones y buses de control del sistema y envía una cantidad programada de bytes desde un dispositivo de E/S a la memoria. "Controlador DMA 8237" es el nombre del circuito integrado utilizado por PCS para esta función.
Cuando un dispositivo tiene un bloque de datos listo para enviar a la memoria, envía una solicitud al DMA configurando una señal DRQn en "1". Si el canal DMA está disponible, el DMA envía una señal HRQ (solicitud de espera) al microprocesador. El microprocesador responderá limpiando los buses y enviando una señal de reconocimiento de espera (HLDA) al DMA. Luego, el DMA obtiene el control de los buses configurando la señal AEN alta y enviando la dirección de memoria para que se escriba. Luego, el DMA envía la señal DACKn (reconocimiento de DMA) al dispositivo. Finalmente, el controlador DMA maneja las señales MEMW e IOR del bus de control. Cuando se completa la transferencia de datos, baja la señal HRQ y el procesador recupera el control de los canales nuevamente.
Si un dispositivo necesita datos de la memoria, el proceso es el mismo. La única diferencia es que el controlador DMA usa las señales MEMR e IOW en el bus de control.
Busmester DMA
Otra forma de acceso directo a la memoria es Busmaster DMA, pero esto no tiene nada que ver con el chip DMA integrado en la placa base y el actual del que hablamos anteriormente.
En este tipo de acceso, el controlador del disco duro desconecta la CPU del BUS y transfiere los datos mediante un controlador Busmaster DMA autogestionado.
De esta forma, se pueden alcanzar velocidades de transferencia de hasta 8 mb/s. Busmaster DMA solo se utilizó en el caso de los controladores SCSI.
UDMA (Ultra DMA)
No lo mencioné al principio del artículo, ya que es solo una variante de Busmaster DMA, implementada en controladores IDE y velocidad aumentada.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 158
transferencia a 16 MB/s. Más tarde, UDMA 2 (o UDMA 33) alcanzó los 33 megabytes/s. Y las placas base con controladores integrados de 66 MB/s ya se venden hoy en día.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 159
El microprocesador:
Unidad central de procesamiento (CPU), un pequeño circuito que interpreta y ejecuta instrucciones. La CPU maneja la gestión y el procesamiento de datos en las computadoras. Generalmente, una CPU es un microprocesador basado en un chip, una sola pieza de silicio que contiene millones de componentes electrónicos. El microprocesador de la CPU consta de una unidad aritmético-lógica que realiza cálculos y comparaciones y toma decisiones lógicas (determina si una declaración es verdadera o falsa usando reglas de álgebra booleana). por una serie de registros donde se almacena información temporalmente y por un controlador que interpreta y ejecuta las instrucciones. Para aceptar comandos de usuario, acceder a datos y mostrar resultados, la CPU se comunica a través de un conjunto de circuitos o conexiones denominado bus. El bus conecta la CPU a dispositivos de almacenamiento (como un disco duro), dispositivos de entrada (como un teclado o mouse) y dispositivos de salida (como un monitor o una impresora).
rendimiento de la CPU
Cuando se ejecuta un programa, el registro de la CPU, llamado contador de programa, realiza un seguimiento de la siguiente instrucción para garantizar que las instrucciones se ejecuten en el orden correcto. El controlador de la CPU coordina y programa las operaciones de la CPU y luego recupera la siguiente instrucción de la memoria. En una secuencia típica, la CPU ubica la instrucción en la unidad de almacenamiento correspondiente. La instrucción va por el bus de memoria a la CPU, donde se almacena en el registro de instrucciones. Mientras tanto, el contador del programa se incrementa en uno para prepararse para el siguiente comando. Luego, el comando actual es analizado por un decodificador, que determina lo que hará el comando. Cualquier dato requerido por la instrucción se recupera del dispositivo de almacenamiento correspondiente y se almacena en el registro de datos de la CPU. Luego, la CPU ejecuta la instrucción y los resultados se almacenan en otro registro o se copian en una dirección de memoria específica.
el microprocesador
Un microprocesador es un circuito electrónico que actúa como la unidad central de procesamiento de una computadora, proporcionando control sobre las funciones informáticas. Podemos decir que es el cerebro de la computadora. Los microprocesadores también se utilizan en otros sistemas informáticos avanzados, como impresoras, automóviles o aviones.
Un microprocesador es un tipo de circuito altamente integrado. Los circuitos integrados, también conocidos como microchips o chips, son circuitos electrónicos complejos que consisten en componentes extremadamente pequeños formados en una sola pieza delgada y plana de material conocida como semiconductor. Los microprocesadores modernos incorporan hasta 10 millones de transistores (que funcionan como amplificadores electrónicos, osciladores o, más comúnmente, interruptores), además de otros componentes como resistencias, diodos, capacitores y uniones, todo en un área de superficie comparable a la de un disco. estampilla.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 160
Un microprocesador se encarga de las muchas partes diferentes. La unidad aritmético-lógica (ALU) realiza cálculos con números y toma decisiones lógicas. Los registros son áreas especiales de la memoria para almacenar información temporalmente. el controlador decodifica los programas. Los autobuses llevan información digital a través de un chip y una computadora. La memoria local se utiliza para los cálculos realizados en el propio chip. Los microprocesadores más complejos a menudo contienen otras partes. por ejemplo, partes especializadas de la memoria llamadas memoria caché, que sirven para acelerar el acceso a dispositivos de almacenamiento de datos externos. Los microprocesadores modernos funcionan con un ancho de bus de 64 bits (un bit es un bit, una unidad de información que puede ser uno o cero): esto significa que se pueden transmitir 64 bits de datos simultáneamente.
Un cristal oscilante en la computadora proporciona una señal de sincronización o señal de reloj para coordinar todas las actividades del microprocesador. La velocidad de reloj de los microprocesadores más avanzados ronda los 800 megahercios (MHz), unos 800 millones de ciclos por segundo, lo que les permite ejecutar más de 2 mil millones de instrucciones por segundo.
Los microprocesadores suelen tener dos velocidades: Velocidad interna: velocidad a la que el micro funciona internamente (500, 600, 800 MHz). Velocidad externa o de bus (FSB): velocidad a la que se comunican el ordenador y la placa base (generalmente 60, 66 o 100 MHz).
Un micrófono consta de las siguientes partes:
• el coprocesador matemático, que realiza los cálculos matemáticos. • Memoria caché, memoria extremadamente rápida que ayuda a la computadora a trabajar con datos
que conduce continuamente. • El encapsulado que lo envuelve para darle cohesión evita su desgaste y lo hace fuerte
conectarse a enlaces externos.
En cuanto a los fabricantes de procesadores, los más famosos son:
• Intel: Es la marca por defecto y las demás son compatibles con Intel. • AMD: Siempre ha estado por detrás de Intel, aunque en ocasiones la ha superado, p.
con el conocido K7 (Athlon). • Cyrix: fabrica procesadores para Texas, IBM y Thompson
partes internas
Unidad Aritmético-Lógica (ALU): Realiza funciones de procesamiento de datos. Unidades funcionales: se encargan de operaciones matemáticas concretas y de salida y facilitan el trabajo del microprocesador. (Sumas, multiplicaciones, divisiones por enteros, etc.) Registros: Almacenan datos de un tiempo específico dentro de la CPU. etc.
Todos estos elementos están conectados entre sí a través de un conjunto de circuitos o conexiones llamado bus. Todo su funcionamiento se basa en interpretar las señales eléctricas como números y así poder trabajar con ellas, para lo que utiliza métodos como el álgebra booleana.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 161
El nombre microprocesador solo describe el conjunto de todos los componentes que componen la CPU cuando está instalada y lista para usar. Podemos dividir cualquier procesador en dos grandes bloques: Unidad de Control (UC) y Unidad de Procesamiento (op), que se comunican entre sí de forma continua. La Unidad de Control es la encargada de gestionar y controlar el buen funcionamiento de la Unidad de Tramitación, que es la que realiza el trabajo. Esta tarea de gestión y control de la UC se realiza habilitando/deshabilitando las señales enviadas a la UP y especificando las acciones a realizar en cada momento.
La unidad de procesamiento consta de varios elementos tales como: ALU, registros y buses.
En la imagen vemos el interior de la operación, en especial esta es muy simple, tiene pocos registros, tres buses y una ALU. Los buses A y B transportan datos desde los registros a la ALU para su operación, y el bus C se encarga de introducir los datos resueltos en la memoria o registros para ser reemplazados con un nuevo valor.
La UC, por su parte, es la encargada de controlar y dar órdenes (qué órdenes van a dónde, quién va primero, cómo operar, etc.) en todos los procesos que se desarrollan en la UP. Estas instrucciones están dentro de la instrucción a ejecutar, por lo que podemos concluir que todas las instrucciones pasan primero por la UC y de ahí. La directiva en sí contiene los datos que se van a manipular y al comienzo de cada tipo de operación que se va a realizar en esos datos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 162
Hay varios tipos de funciones:
· Transferencia de datos: por lo general, implica mover datos de un sitio a otro. Debe especificar la dirección de entrada y la dirección de destino y la longitud a transferir.
· Aritmética: Cuando se utilizan operaciones básicas (suma, resta, multiplicación y división). Hay otros tipos, como tomar el valor absoluto de un número, negando (invirtiendo) el operador. Se pueden realizar en números enteros, pero también se requieren en números reales. Este tipo de operaciones las realiza la ALU, que puede requerir una operación de transferencia de datos.
· Lógica: Realizan operaciones bit a bit, operaciones booleanas intermedias NOT AND OR XOR.... Tienen muchos usos, especialmente si se combinan con operaciones bit a bit.
· Conversión: El formato de los datos ha cambiado, es posible que sea necesario incluir algunas operaciones: acarreo, aritmética, lógica, etc. ...
· E/S: relacionado con el control de dispositivos de E/S, a menudo mediante interrupciones.
· Control del Sistema: Tienen ciertos privilegios sobre otro tipo de operaciones, generalmente solo pueden ser realizadas por el sistema operativo.
· Transferencia de Control: Cambia el orden secuencial normal de ejecución del programa. La acción indicada por estas instrucciones es cambiar el contador de la computadora (memoria interna de la CPU) a la siguiente dirección a procesar. Se utilizan para reducir la duración de los programas.
Los componentes más importantes de un microprocesador son:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 163
Unidad Aritmética Lógica (UAL) y Unidad de Control (UC).
La Unidad Aritmética Lógica es la que realiza las operaciones del microprocesador, el cual se encarga de sumar, restar, realizar operaciones lógicas, etc. con los operadores de los registros X e Y.
La unidad de control controla todos los demás componentes con líneas de control que se encienden y apagan simultáneamente con la señal del reloj.
Cuando el microprocesador se reinicia, la unidad de control recibe una señal de reinicio y prepara el resto del sistema y recibe la señal del reloj que señala la velocidad del procesador.
- El registro de la computadora (Program Counter) o Program Counter, se carga con la dirección de memoria donde se inicia el programa.
- El controlador hace que aparezca el contador de programa (PC) en el bus de direcciones e informa a la RAM que desea leer los datos almacenados en esa ubicación.
- La memoria coloca los datos, que son las instrucciones del programa, en el bus de datos, desde donde se cargan en el registro de instrucciones (RI). El controlador lo procesa y permite el movimiento de datos.
- La instrucción va del RI al decodificador de instrucciones (DI), el cual contiene un arreglo con el significado de la instrucción. El DI ejecuta el comando y, si no, puede consultar al controlador.
- Si la instrucción fuera una suma, la UC cargaría los valores a sumar en los registros A y B de la UAL. Luego le indicará a la UAL que los agregue y los coloque en el bus de datos.
- UC entonces hará que el contador del programa avance para ejecutar el siguiente comando y así sucesivamente.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 164
control de interrupciones
coprocesador
Coprocesador matemático: un procesador distinto del microprocesador principal que realiza funciones adicionales o ayuda al microprocesador principal. El tipo de coprocesador más común es el de punto flotante o más correctamente FPU (Floating Point Unit, Unidad), también llamado aritmético o matemático, diseñado para realizar cálculos numéricos más rápido y mejor que los microprocesadores generales utilizados en las computadoras. La última generación de procesadores informáticos tienen lógica de punto flotante, por lo que este tipo de elemento no es necesario.
Instrucciones SIMD Los datos involucrados en las operaciones del microprocesador tienden a ser valores pequeños que pueden ser representados por una pequeña cantidad de bits. Este tipo de operación se denomina SIMD (Instrucción única, datos múltiples) y puede reducir la cantidad de instrucciones que necesita un programa para manejar una cantidad determinada de datos. Las instrucciones SIMD están integradas en los procesadores de PC actuales y aceleran una amplia variedad de aplicaciones, incluidas aplicaciones de video, reconocimiento de voz, procesamiento de imágenes, criptografía, ciencia, ingeniería y finanzas. Pero para aprovecharlos, el software debe estar escrito específicamente para ellos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 165
Instrucciones SIMD como 3Dnow! Y SSE2 puede acelerar las operaciones de números enteros o de punto flotante, pero su principal ventaja y uso está en este último. MMX, por otro lado, solo acelera las operaciones con números enteros y gráficos 2D.
MMX
La tecnología MMX se incorporó a la quinta generación de procesadores como un agregado para mejorar las tareas multimedia. Estas características incluyen compresión y descompresión de video, manipulación de imágenes y encriptación. Específicamente, MMX es un conjunto de 57 nuevas instrucciones diseñadas específicamente para acelerar programas que usan sonido, video y gráficos. Sin embargo, estas instrucciones no alivian la carga de trabajo de la FPU del procesador, sino que mejoran el trabajo con números enteros. Para aprovechar la mejora del rendimiento de MMX, el software debe programarse para hacer uso de las nuevas instrucciones. Dado que Intel ha licenciado esta tecnología a sus competidores en la actualidad, es estándar en todos los procesadores modernos.
3DAgora!
En 1998, AMD introdujo un nuevo conjunto de instrucciones en sus procesadores para mejorar el rendimiento 3D. 3D ahora! Consta de 21 nuevas instrucciones de estilo MMX, pero diseñadas para aplicar operaciones de coma flotante. Esta mejora fue significativa debido a la FPU relativamente débil de los micrófonos K6 de la época. Además de realizar cálculos de geometría 3D, hay instrucciones para operaciones específicas como la compresión/descompresión de video MPEG-2. Con el procesador Atoll (K7), AMD ha integrado varias instrucciones llamadas Enhanced 3Dnow! (3Dnow! Mejorado). 3D ahora! Se encuentra en los procesadores K6-2, K6-III y Atholon, así como en Cyrix III de VIA. 3D mejorado ahora! Se encuentra en Atholon y más allá.
SSE
Con el procesador Pentium III, Intel introdujo un nuevo conjunto de instrucciones diseñado para acelerar el rendimiento en juegos 3D y aplicaciones con uso intensivo de FPU. Estas 70 instrucciones se conocen como MMX2, KNI (Katmai New Instructions) o más comúnmente SSE (Streaming SIMD Extensions). ¡La tecnología SSE se lanzó 6 meses después de 3Dnow! , y sus funciones y rendimiento son similares.
SE 2
La transmisión de SIMD Extensions 2 es una de las características más comentadas de los procesadores Pentium 4, aunque en realidad se sabe poco sobre la función que realizan. Imaginemos que tenemos que hacer la misma operación con una gran cantidad de números. Por ejemplo, necesitamos multiplicarlos por un cierto valor. Convencionalmente, ejecutaría la función una a la vez, enviando la misma instrucción al procesador cada vez. Con una instrucción SIMD, la instrucción que se le da es una simple multiplicación de un vector (conjunto de números) por un escalar (número único). Ahorra mucho tiempo. Las mejoras de SSE aplicadas al Pentium 4 se refieren principalmente al uso de registros más grandes ya la inclusión de un mayor número de instrucciones para el almacenamiento en caché de datos. Por supuesto, cualquier software que no use estas instrucciones no aprovechará esta característica. Por cierto, los procesadores AMD incluyen soporte completo para las instrucciones SSE de Atholon XP y SSE 2 de Atholon 64.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 166
memoria del ordenador
Dado que el microprocesador por sí solo no puede albergar la gran cantidad de memoria necesaria para almacenar instrucciones y datos de programación (por ejemplo, el texto de un procesador de textos), los transistores se pueden utilizar como elementos de memoria junto con el microprocesador. Otros circuitos integrados llamados chips de memoria de acceso aleatorio (RAM), que contienen una gran cantidad de transistores, se utilizan para proporcionar la memoria necesaria. Hay varios tipos de memoria de acceso aleatorio. La RAM estática (SRAM) retiene la información siempre que se aplique el voltaje de suministro y, a menudo, se usa como un búfer porque funciona a alta velocidad. Otro tipo de memoria, la RAM dinámica (DRAM), es más lenta que la SRAM y debe actualizarse periódicamente para evitar que se queme. La DRAM es más económica que la SRAM y se utiliza como elemento de memoria principal en la mayoría de las computadoras.
microcontrolador
Un microprocesador no es una computadora completa. No contiene grandes cantidades de memoria, ni puede comunicarse con dispositivos de entrada como un teclado, joystick o mouse, o dispositivos de salida como un monitor o una impresora. Otro tipo de circuito integrado llamado microcontrolador es en realidad una computadora completa en un solo chip que contiene todos los componentes del microprocesador básico, así como otras funciones especializadas. Los microcontroladores se utilizan en videojuegos, reproductores de video, automóviles y otras máquinas.
Comparación
Cuando se ejecuta un programa difícil o grande, los CISC son más rápidos y eficientes que los RISC. Por otro lado, cuando ejecutamos un conjunto de instrucciones simples, breves y simples, encontramos que los RISC son más rápidos. Estas diferencias también se dan entre los distintos modelos y marcas de los dos tipos de procesadores.
semiconductores
Todos los circuitos integrados están hechos con semiconductores, sustancias cuya capacidad para transportar electricidad es intermedia entre la de un conductor y la de un no conductor, o aislante. El silicio es el material semiconductor más común. Dado que la conductividad eléctrica de un semiconductor puede variar según el voltaje que se le aplica, los transistores semiconductores actúan como pequeños interruptores que encienden y apagan la corriente en solo unos pocos nanosegundos (mil millonésimas de segundo). Esto permite que una computadora ejecute millones de instrucciones simples cada segundo y complete rápidamente tareas complejas.
El componente básico de la mayoría de los dispositivos semiconductores es el diodo, una combinación de materiales negativos (tipo n) y positivos (tipo p). Los términos "tipo n" y "tipo p" se refieren a materiales semiconductores dopados, es decir, cuyas propiedades eléctricas han sido alteradas por la adición controlada de pequeñas concentraciones de impurezas como boro o fósforo. En un diodo, la corriente eléctrica fluye en una sola dirección a través de la unión: del material tipo p al material tipo n, y solo cuando el material tipo p tiene un voltaje más alto que el material tipo n. El voltaje que se debe aplicar al diodo para crear esta condición se denomina voltaje de polarización. El voltaje opuesto que hace que no fluya corriente se llama polarización inversa. un circuito
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 167
El circuito integrado contiene millones de uniones p-n, cada una de las cuales tiene un propósito específico dentro de los millones de elementos del circuito electrónico. La colocación correcta y la polarización de las regiones de tipo p y n mantienen la corriente eléctrica en las rutas correctas y aseguran el funcionamiento adecuado de todo el chip.
transistor
El transistor más utilizado en la industria de la microelectrónica se denomina transistor de efecto de campo semiconductor de óxido metálico (MOSFET). Contiene dos regiones de tipo n, llamadas fuente y drenaje, con una región de tipo p en el medio, llamada canal. Sobre el canal hay una capa delgada de dióxido de silicio no conductor, encima de la cual hay otra capa llamada puerta. Para que los electrones fluyan desde la fuente al drenaje, se debe aplicar un voltaje a la puerta (voltaje de polarización directa). Esto hace que la puerta actúe como un interruptor de control que enciende y apaga el MOSFET, creando una puerta lógica que transmite unos y ceros a través del microprocesador.
fabricación de microprocesadores
Los microprocesadores se fabrican utilizando técnicas similares a las utilizadas para otros circuitos integrados, como los chips de memoria. Los microprocesadores suelen tener una estructura más compleja que otros chips y su fabricación requiere técnicas muy precisas.
La fabricación económica de microprocesadores requiere una producción en masa. Varios cientos de grupos de circuitos se crean simultáneamente en la superficie de una oblea de silicio. El proceso de fabricación de un microprocesador consiste en una serie de deposiciones y eliminaciones de capas muy finas de materiales conductores, aislantes y semiconductores hasta que, tras cientos de pasos, se consigue un complejo "sándwich" que contiene todos los circuitos interconectados del microprocesador. Para el circuito electrónico, solo se utiliza la superficie exterior de la oblea de silicio, una capa de unas 10 micras de espesor (alrededor de 0,01 mm, una décima parte del espesor de un cabello humano). Los pasos del proceso incluyen la fabricación del sustrato, la oxidación, la litografía, el grabado, la implantación de iones y la deposición de capas.
El primer paso en la fabricación de un microprocesador es crear un sustrato de silicio de alta pureza, una rebanada de silicio en forma de oblea redonda pulida hasta un estado liso como un espejo. En la etapa de oxidación se coloca una capa eléctricamente no conductora, llamada dieléctrico. El tipo más importante de dieléctrico es el dióxido de silicio, que se "cultiva" exponiendo la oblea de silicio a una atmósfera de oxígeno en un horno a unos 1.000 ºC. El oxígeno se combina con el silicio para formar una fina capa de óxido de unos 75 angstroms de espesor ( un angstrom es la mil millonésima parte de un metro).
Casi todas las capas depositadas en la oblea deben coincidir con la forma y el diseño de los transistores y otros componentes electrónicos. Esto generalmente se hace a través de un proceso llamado fotolitografía, que es equivalente a convertir la oblea en una película fotográfica y proyectar sobre ella una imagen del circuito deseado. Para ello, se deposita sobre la superficie de la oblea una capa sensible a la luz, cuyas propiedades cambian cuando se exponen a la luz. Los detalles del circuito pueden ser tan pequeños como 0,25 micrones.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 168
Dado que la longitud de onda más corta de la luz visible es de aproximadamente 0,5 micras, es necesario utilizar luz ultravioleta de baja longitud de onda para resolver los detalles más pequeños. Una vez que el circuito se expone a la capa fotorresistente y se revela, se graba la oblea: es decir, la parte de la oblea que no está protegida por la imagen grabada del circuito se elimina con productos químicos (un proceso conocido como grabado húmedo) o mediante exponiéndolo a una sustancia corrosiva gaseosa llamada plasma en una cámara de vacío especial.
En el siguiente paso del proceso, la implantación de iones, se introducen impurezas como boro o fósforo en el silicio para cambiar su conductividad. Esto se hace ionizando los átomos de boro o fósforo (eliminando uno o dos electrones) y dejándolos caer sobre la oblea a altas energías usando un implantador de iones. Los iones están incrustados en la superficie de la oblea.
En la etapa final del proceso, las capas o películas del material utilizado para fabricar un chip se depositan mediante el bombardeo de átomos en un plasma, evaporación (donde el material se funde y luego se evapora para recubrir la oblea) o deposición. vapor químico en el que el material se condensa a partir de un gas a baja presión o a presión atmosférica. En todos los casos la película debe ser de alta pureza y su espesor debe ser controlado a una fracción de micra.
Los detalles de un microprocesador son tan pequeños y precisos que una sola mota de polvo puede destruir todo un grupo de circuitos. Las salas utilizadas para fabricar microprocesadores se denominan salas limpias porque el aire que contienen está completamente filtrado y prácticamente libre de polvo.
Función y elementos que la componen
El microprocesador en sí no es más que una delgada lámina de silicio a la que se sueldan un conjunto de componentes electrónicos, y estos son los encargados de procesar todas las señales eléctricas que representan bits (acrónimo de Binary digit), ceros cuando no hay corriente y estos cuando pasa la corriente eléctrica. Los transistores son más utilizados porque utilizan silicio, que es un material semiconductor, estos materiales tienen la propiedad de que bajo ciertas condiciones permiten o no el paso de corriente a través de ellos, por lo que es más fácil simbolizar el código binario.
Un transistor consta de tres capas de materiales, la primera: metal, la segunda: aislante y la tercera una mezcla de silicio, un conductor (n) y otro aislante (p). En su estado normal, no fluye corriente porque el silicio tipo p bloquea el flujo de corriente. pero si aplicamos un voltaje a la primera capa, se crea un campo positivo que hace que los electrones se acumulen encima del p-silicio, lo que permite que la corriente fluya a través de él (convirtiéndose en n-silicio). En el momento en que desea dejar de dejar fluir la corriente, se aplica un campo negativo a la primera capa, lo que hace que el p-silicio repele los electrones y regrese a su estado original.
Entonces tenemos que simbolizar un cero, la corriente no puede pasar, y para un uno la dejamos pasar por el otro lado. Y básicamente en lo que consiste un microprocesador es en el funcionamiento de transistores (ausencia o presencia de electricidad).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 169
En la imagen podemos ver cómo se ven a simple vista los componentes internos del ordenador, la mayoría transistores. Por otro lado, a la derecha, vemos una prueba de Intel para mejorar la estructura interna de la computadora, es decir, el núcleo. Se trabaja en la mejora estructural de los estratos que lo componen.
En cuanto a la CPU, hablaremos sobre la utilidad del proceso de tiempo compartido en las microempresas. Este tipo de procesadores se denominan "apagados". En un procesador normal, sin segmentación, tenemos que iniciar operaciones solo cuando finaliza la anterior, en cambio, en procesadores segmentados, las operaciones se intercalan entre ellas, lo que se observa es la duración de un paso, inmediatamente después de usar la interrupción dejar pasar uno antes que el otro. En el siguiente gráfico podemos confirmar que realizar operaciones segmentadas es más eficiente que realizarlas sin segmentar, ahora vemos cada uno de estos pasos.
Paso 1: Transferir instrucciones de la memoria al procesador. Paso 2: Decodificar la instrucción y leer los operandos en los registros. Paso 3: Realice los cálculos con los operadores ALU. Paso 4: paso de acceso a la memoria. Paso 5: Escriba el resultado de ejecutar el comando. I.
Hemos dicho muchas veces antes que las tareas complejas de un microprocesador son en realidad una enorme serie de tareas simples. Entonces, para entender cómo funciona un microprocesador, sus partes y su interfaz con el mundo exterior, tomemos un ejemplo simple, ejecutemos un programa para agregar dos datos, para esto el microprocesador necesita cuatro instrucciones: cargar, agregar, mover y almacenar. Recuerda que el microprocesador no interpreta las instrucciones como palabras, sino como números, por lo que necesitamos una combinación de cuatro números binarios diferentes para cada instrucción. Entonces, para estas cuatro instrucciones, solo necesitamos una tabla de estado de 2 bits. Necesitamos un programa, que en este caso será "sumar dos dados". Cada instrucción a ejecutar y cada dato a procesar reside en una ubicación de memoria diferente, conectada al microprocesador a través del bus de datos y el bus de direcciones. Para cada ciclo de reloj o pulso, se ejecuta una instrucción. Recuerda que el reloj marca el ritmo para coordinar los pasos. Así que para este programa necesitamos nueve ciclos de reloj:
• Pulso 1- Inicio: conexión del sistema: se realizan varias acciones simultáneas: - Al encender el sistema, un circuito externo prepara el microprocesador
a través de la línea de Reset (que es la que está conectada al interruptor manual en el frente del gabinete).
- El módulo de reloj se inicia y genera el primer pulso de reloj utilizado para inicializar el contador del programa colocando 0000H en las ubicaciones de memoria. A su vez, se inicializa la unidad de control que generará la señal para el bus de control.
- De esta forma, el dispositivo de memoria recibe la dirección 0000H a través del bus de direcciones y, a través del bus de control, la solicitud de lectura.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 170
- El dispositivo de memoria coloca, en el bus de datos, el contenido de la ubicación 0000H (lee la primera instrucción).
- Estos datos pasan a través de este bus a la unidad de control, que comienza a generar las señales internas y externas al sistema para ejecutar el comando.
• Pulso 2 - Ejecutar el cambio de M1 a A: con el pulso 2 se incrementa el contador del programa y la instrucción actual especifica que el contenido de esta segunda ubicación debe colocarse en el acumulador del procesador. El acumulador ahora tiene la matriz M1.
• Pulso 3 - Ejecutar la adición A+M2—A: El CP (Contador de Programa) se incrementa y se crea una nueva ubicación de memoria. el contenido se extrae y se transfiere a UC. La decodificación de esta instrucción por parte de UC dice que los datos previamente eliminados del acumulador deben agregarse con otros datos que están en la memoria.
• Pulso 4- Ejecución de la adición de A+M2—A continúa: CP se incrementa y se crea una nueva ubicación de memoria. 2 Los datos enviados a la ALU se almacenan allí.
• Pulso 5- Suma completa A+M2—A: en la ALU se suma el dato 1 en el acumulador con el dato 2 y el resultado se almacena en el acumulador, con lo cual se pierde (escribe) el dato 1. Cinco da soma.
• Pulso 6 - Ejecutar A—M3: con el siguiente pulso se incrementa CP, se da salida al contenido y, cuando se decodifica, se encuentra una instrucción de almacenamiento. Esto indica que el resultado de la suma se almacenará en una dirección de memoria M3, almacenada en las siguientes direcciones de memoria.
• Pulso 7 - Continúa la ejecución de A—M3: se incrementa CP y de esta ubicación se extrae la primera parte de la ubicación M3, donde se realiza el almacenamiento, almacenándola temporalmente en un registro denominado "Registro de Direcciones".
• Pulso 8: la ejecución de A—M3 continúa: CP se incrementa, la segunda parte de la dirección se extrae de esta ubicación y se envía al registro de direcciones. Entonces tenemos la dirección de memoria completa de la ubicación donde se almacenará el resultado de la suma. Este paso se repite tantas veces como sea necesario, dependiendo del número de secciones en las que se vayan a dividir los datos.
• Pulso 9 - Fin de ejecución de A—M3: Con la dirección donde se configuró el registro de direcciones, se crea una nueva ubicación de memoria (en este caso M3), solicitando que se escriba la memoria desde el bus de control y su contenido el acumulador se envía desde el bus de datos (resultado de la suma a almacenar.
Oculto:
Una memoria extremadamente rápida que la computadora usa para mantener listos algunos datos que probablemente se usarán en operaciones posteriores sin tener que ir a la RAM, lo que reduce la latencia.
Todos los micros "compatibles con PC" desde el 486 tienen al menos un llamado primer nivel interno o caché L1. es decir, la que está más cerca del micro, para que quede cerrada junto a él. Las computadoras más modernas (Pentium III Coppermine, Athlon Thunderbird, etc.) también incluyen un segundo nivel de caché, un segundo nivel más grande pero un poco más lento o caché L2. En este momento ya podemos hablar de la caché L3.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 171
MHz y el índice iCOMP
Hay que tener en cuenta que un PC con un PC de 600 MHz nunca será el doble de rápido que un PC con un PC de 300 MHz, hay que tener en cuenta otros factores como la velocidad de la tarjeta o el efecto de otros componentes. Esto apenas se considera en el índice iCOMP, una tabla o gráfico de precios del supuesto rendimiento de las computadoras de la marca Intel. Es muy utilizado por Intel en sus folletos promocionales, aunque en ningún caso es representativo del rendimiento final de un ordenador con uno de estos equipos. De hecho, las diferencias son muy exageradas, en base a pruebas que dependen casi exclusivamente del ordenador (y no de la placa base, tarjeta gráfica, disco duro...), por lo que siempre parece que el rendimiento del ordenador aumentará linealmente con Megahercio. número, que casi nunca sucede. Una computadora Pentium MMX de 233 MHz es solo un 3-4 % mejor que una de 200 MHz, ni el 16,5 % de la diferencia de MHz ni el 11,5 % de las calificaciones de iCOMP.
Estructura 486
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 172
Δομή Pentium
Estructura P4
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 173
Microprocesador CISC y RISC
Hay dos tendencias en la construcción de microprocesadores basadas en la cantidad de instrucciones que pueden ejecutar. Por un lado, están los que pueden ejecutar un conjunto reducido de instrucciones simples (Computadora con Conjunto de Instrucciones Reducidas RISC), y por otro lado, los que se ocupan de un conjunto de instrucciones más complejo (Computadora con Conjunto de Instrucciones Complejas CISC).
Un microprocesador CISC entiende y ejecuta cientos de instrucciones que componen el conjunto, un tipo RISC hace lo mismo con muy pocas instrucciones. De esto se puede decir que un procesador CISC es más rápido y eficiente, pero no es así, los del tipo son más lentos y complejos que un RISC, ya que el primero tarda más en ejecutar cada instrucción, mientras que un RISC maneja rápidamente algunas instrucciones simples y logra la equivalencia en combinación con las instrucciones complejas de la tecnología RISC.
La tecnología RISC se utiliza en procesadores Macintosh, así como en microprocesadores de PC modernos, como el Pentium 4. Las instrucciones CISC se encuentran comúnmente en microprocesadores más antiguos, como el 80486.
Además de estas dos versiones, encontramos el sistema de instrucciones VLIW (Very Long Instruction Word), que utiliza instrucciones más largas que las utilizadas en las arquitecturas CISC y RISC. La idea en este caso es trabajar con múltiples instrucciones en una sola operación, este sistema no lo utilizan ni Intel ni AMD.
conjunto de instrucciones
Cada instrucción es un número binario que el microprocesador debe interpretar para realizar la siguiente operación. Lo que indica a qué número binario corresponde cada instrucción es el conjunto de instrucciones. El conjunto de instrucciones que un microprocesador es capaz de comprender y ejecutar se conoce como conjunto de instrucciones. Según el tipo de microprocesador, en concreto si es más avanzado o no, podrá comprender y ejecutar más o menos instrucciones.
HyperTransport funciona entre 200 y 1400 MHz (en comparación con pci que funciona a 33 o 66 MHz). Es un bus DDR (Double Data Transfer Rate en español) que permite transferir datos a través de dos canales diferentes simultáneamente en un mismo ciclo de reloj.
Hipertransporte (HT)
Es una tecnología de comunicación universal de chip a chip que proporciona una conexión avanzada de alta velocidad y alto rendimiento a los circuitos integrados de la placa base. Es un conector genérico diseñado para reducir la cantidad de buses en un sistema, proporcionando conectividad de alto rendimiento para aplicaciones integradas y facilitando sistemas de multiprocesamiento a gran escala.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 174
historia del microprocesador
El primer microprocesador fue el Intel 4004, fabricado en 1971. Originalmente desarrollado para una calculadora, fue revolucionario para su época. Contenía 2.300 transistores en un microprocesador de 4 bits que solo podía realizar 60.000 operaciones por segundo. El primer microprocesador de 8 bits fue el Intel 8008, desarrollado en 1979 para su uso en terminales de computadora. El Intel 8008 contenía 3300 transistores. El primer microprocesador verdaderamente de propósito general, desarrollado en 1974, fue el Intel 8080 de 8 bits, que contenía 4500 transistores y podía ejecutar 200 000 instrucciones por segundo. Los microprocesadores modernos tienen una capacidad y una velocidad mucho mayores.
Una breve historia de los microprocesadores
La primera "PC" o Computadora Personal fue inventada por IBM en 1981 (a decir verdad, hubo computadoras personales antes, pero el modelo de IBM tuvo mucho éxito, en parte porque era fácil de copiar). Dentro había un micro llamado 8088, de una compañía poco conocida llamada Intel.
Las especificaciones del chip en cuestión son ridículas hoy en día: un chip de 8 bits que funciona a 4,77 MHz (sí, 4 puntos de 77), aunque bastante razonable para una época en la que el chip moderno era el Z80 de Zilog, el motor del encantador Spectrum que estaba de moda en ese momento, principalmente gracias a juegos increíbles, con más gracia y arte que muchos juegos Pentium MMX actuales.
El 8088 era una versión de menor rendimiento del 8086, que aplicaba la etiqueta "86" a los siguientes chips Intel: 80186 (que se usaba principalmente para controlar periféricos), 80286 (números aterradores, 16 bits y más de 20 MHz), y finalmente, en 1987, el primer micro de 32 bits, el 80386 o simplemente 386.
Ser de 32 bits (hablaremos de lo que significa ese bit) nos ha permitido crear software más moderno con capacidades como la verdadera multitarea, es decir, ejecutar más de un programa al mismo tiempo. Desde entonces, todos los chips compatibles con Intel han sido de 32 bits, incluido el nuevo Pentium II.
Comencemos con este Intel compatible ahora. El mundo de las computadoras no es todo el mundo de las computadoras personales. Está, por ejemplo, Atari o Apple, que desde un principio dependía de otra empresa llamada Motorola. Sin embargo, el software de estas computadoras no es compatible con la familia de instrucciones 80x86 de Intel. Estas computadoras, aunque a veces son mejores que las de Intel, simplemente no entienden los comandos utilizados en las computadoras de Intel, por lo que se dice que son incompatibles con Intel.
Aunque hay chips compatibles con Intel de otras compañías, los más destacados son AMD y Cyrix. Estas empresas empezaron a copiar abiertamente a Intel, a veces con gran detrimento (con productos como el 386 de AMD alcanzando los 40 MHz frente a los 33 MHz o 486 de Intel en el mercado). Después perdieron la ola de Intel, principalmente esta publicidad, pero hoy están resurgiendo con ideas nuevas, buenas y propias, que no fueron adoptadas como antes.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 175
Retrocediendo en la historia, un día llegó el 486, que era un 386 con coprocesador matemático incorporado y caché incorporado, lo que lo hacía más rápido. desde entonces todas las marcas tienen ambos.
Luego vino Pentium, nombre acuñado para evitar que AMD o Cyrix 586 aparecieran, ya que no era posible asegurar un número, pero sí un nombre que explotaban para lanzar potentes campañas publicitarias de "Intel Inside" (Intel Inside). , a los coloridos ingenieros informáticos que anuncian el Pentium MMX y el Pentium II.
Más sobre estos (MMX y II, no del tipo ridículamente coloreado) y otros modelos recientes, incluido el Athlon, con el que AMD apareció como un ave fénix, más adelante.
viejos microprocesadores
Aquí asumiremos la antigüedad de cada computadora que no sea Pentium o similar (K5, K6, 6x86, Celeron...) bajo consideración:
8086, 8088, 286
Los juntamos porque todos son prehistóricos y tienen un rendimiento similar. Las computadoras con los dos primeros a veces se conocían como computadoras XT, mientras que las que tenían un 286 (80286 para los puristas) se conocían como AT. En España, Amstrad vendió muchos ordenadores con estos ordenadores, p.
Ninguno tenía 32 bits, sino 8 o 16, ya sea en el bus interno o externo. Esto significa que los datos pasaban por rutas (buses) que eran de 8 o 16 bits, ya sea en el chip o en la salida, por ejemplo, para ir a la memoria. Este número reducido de bits (un bit es la unidad de información más pequeña en electrónica) limita severamente sus capacidades.
Un chip de estas características tiene como entorno preferido y casi único DOS, aunque se podría construir Windows 3.1 para correr en un 286 a 16 o 20 MHz si las aplicaciones que necesitamos no son nada exigentes. Personalmente, usé el procesador de texto AmiPro 1.2 en Windows 3.1 en un 286, y era solo cuestión de tomarlo con calma (muy fácil una vez que lo imprimí, eso sí).
386, 386SX
Estos chips ya son más modernos, pero aún provienen de la computadora neolítica. Su ventaja es que son de 32 bits. o mas bien el 386 es de 32 bits? El 386 SX es de 32 bits internamente, pero de 16 bits en el bus externo, lo que lo hace hasta un 25 % más lento que el original, conocido como DX.
Curiosamente, el prototipo más potente es el 386. La versión SX fue lanzada al mercado por Intel siguiendo una táctica comercial típica de esta empresa: dejar el progreso tecnológico en reserva, manteniendo los precios altos reduciendo las versiones ("SX") a precios más bajos.
El problema es que ambos pueden ejecutar software de 32 bits, pero si quieres usar Windows 95, ¡ni siquiera pienses en un 386! Suponiendo que tiene suficiente RAM, disco, etc., prepárese para esperar horas para hacer algunas tonterías.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 176
Su hogar natural es DOS y Windows 3.x, donde pueden manejar aplicaciones razonablemente profesionales como Microsoft Word sin demasiados problemas, e incluso navegar por Internet con bastante rapidez. Si desea software multitarea y de 32 bits en un 386, considere los sistemas operativos OS/2 o Linux.
486, 486SX, DX, DX2 y DX4
La historia se repite, aunque esta vez entra en el terreno del absurdo gracias al marketing de "Intel Inside". 486 es el original y su nombre completo es 80486 DX. que consiste en:
• Un núcleo 386 actualizado, refinado y modificado • Un coprocesador matemático de punto flotante integrado. • un caché (8 Kb en el Intel DX original).
Cabe mencionar que la puesta a punto del core del 386 y sobre todo de la caché lo hace mucho más rápido, casi el doble, que un 386 con la misma velocidad de reloj (mismos MHz). Hasta aquí el original; Veamos las variantes:
• 486 SX: un DX sin coprocesador matemático. ¿Cómo es esto posible? Simple: todo se hace como DX y se quema el coprocesador, después de lo cual en lugar de "DX" se escribe "SX" en el chip. Dantesco, ¿verdad? Pero la teoría es que si lo fabricas y lo vendes más barato, de alguna manera ganas dinero. Como dije, genial.
• 486 DX2: o "2x1": un 486 "completo" que funciona el doble de rápido internamente que externamente (es decir, el doble de MHz). Así una 486 DX2-66 funciona a 66 MHz internamente ya 33 MHz en su comunicación con la tarjeta (memoria, caché secundaria...). Buena idea intel.
• 486 DX4: o cómo hacer 3x1=4. El mismo truco que antes, pero multiplicado por 3 en lugar de 2 (DX4-100 significa 33x3=99 o más o menos 100). ¿Por qué no se llama DX3? 4 es más bonito y más grande...
En este campo, Cyrix y AMD han hecho de todo, desde micros "Light" alimentados por el 386 (por ejemplo, con solo 1 Kb de caché en lugar de 8) hasta chips muy buenos como el que comencé a escribir: un AMD DX4-120 ( 40 MHz x 3), que funciona casi (casi) como un Pentium 75, o incluso un 133 MHz (33 MHz x 4 y con 16 Kb de caché!!).
Por cierto, tanto "por" acaba creando un cuello de botella, ya que es complicado alimentar 100 o 133 MHz por un hueco a 33, lo que hace que más de "x3" termine siendo algo así como "x2. 75" (que no también es malo). También genera calor, por lo que se debe usar un disipador térmico de cobre y un ventilador en el chip.
En un 486 puedes hacer cualquier cosa, especialmente si está por encima de los 66 MHz y tenemos suficiente memoria RAM. Por ejemplo, he hecho gran parte de estas páginas, que no es poco.
microprocesadores modernos
Con tecnología de punta, ya que la mayoría ni siquiera se están fabricando actualmente. De cualquier manera, son micrófonos bastante decentes, del tipo que no deberían cambiarse, excepto en caso de muerte o adicción total (adicción comprensible, sin duda).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 177
Pentium "El Clásico"
¿Y ha llegado por fin el esperado 586? No, y nunca lo haría. Intel se cansó de copiar sus micro nombres, desempolvó el latín y descubrió que 5=Pentium (o algo así) y lo patentó con todo tipo de derechos de autor.
Los primeros Pentium, de 60 y 66 MHz, fueron puros y simples experimentos. Por supuesto, los vendieron (muy caros) como terminados, a pesar de que se calentaron muchísimo (fueron a 5V) y tenían un error en la sección de matemáticas. Pero Intel ya era INTEL y podía permitírselo.
Luego los desarmaron, redujeron el voltaje a 3.3V y comenzaron a trabajar nuevamente. Establecieron las frecuencias de la placa base en 50, 60 o 66 MHz y lanzaron, aproximadamente en ese orden, chips a 90, 100, 75, 120, 133, 150, 166 y 200 MHz (funcionando internamente a 50, 615 o 66 x 66). ) . , x2, x2,5...). Una situación absurda, propia del lema "Intel Inside".
El caso es que muchas de las variaciones eran innecesarias, ya que un 120 (60x2) no era mucho mejor que un 100 (66x1,5) y entre 133 (66x2) y 150 (60x2,5) la diferencia en la serie era del 2% (o menos) debido a esta diferencia de nivel de tabla. Además, el "búfer" hizo que 200 pareciera 166 en un buen día.
Pero el caso es que eran buenas marcas, eficientes y matemáticamente prohibitivas, aunque con los defectos de los primeros modelos. Además, eran superescalares, o en cristiano: soportaban más de un orden a la vez (casi como si fueran 2 micros juntos). Así que la contienda tomó el hábito penitente y sufrió y sufrió…
K5 ή AMD
Hasta que AMD se cansó de sufrir y lanzó el "Clone Pentium", que no lo fue, porque no se podía llamar Pentium (copyright, gente) ni se copiaba, pero costó sangre, sudor, lágrimas... y muchos años de retraso.
El K5 era un buen chip, rápido para el trabajo de oficina, pero con un peor coprocesador matemático que el Pentium, por lo que no era adecuado para CAD o algunos juegos tipo Quake, que son las únicas aplicaciones que usan esa parte de la computadora. Su ventaja es la relación entre rendimiento y precio.
Técnicamente, los modelos PR75, PR90 y PR100 estaban configurados de la misma forma que sus homólogos PR (su índice de rendimiento) en los Pentium, mientras que los modelos PR120, PR133 y PR166 eran más avanzados, por lo que tenían que ir a menos MHz (solo 90 , 100 y 116,66 MHz) para lograr este PR correspondiente.
6x86 (M1) de Cyrix (o IBM)
Avance de Lord Kyrix. Un chip tan bueno que a los mismos MHz era ligeramente mejor que un Pentium, por eso lo llamaban por su PR (un indicador de lo que sería su Pentium).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 178
correspondiente); AMD también usó este método para tres de sus K5 (PR120, 133 y 166). Según Cyrix, un P133 6x86 funcionaba a menos MHz (específicamente 110), pero funcionaba tanto o más que un Pentium a 133. Entonces, a; no siempre fue así.
De hecho, algunos de los cálculos de Cyrix le hicieron un favor, dándole algunos puntos más que los reales. pero no importaba. El verdadero problema estaba en la unidad de punto flotante francamente mala.
6x86 (también llamado M1) fue una gran elección por rapidez y buen precio para trabajar con Office, WordPerfect, Windows 95... Pero mal, peor que un AMD K5, si era AutoCAD, Microstation o sobre todo, juego. Jugar a Quake en 6x86 es una experiencia terrible, hasta el punto de que muchos juegos avanzados no se inician si se detectan.
Otro problema con estos chips era que se calentaban mucho, por lo que hicieron una versión de bajo voltaje llamada 6x86L (bajo voltaje). Oh, Cyrix no tiene sus propias fábricas, así que IBM los fabrica para ellos, que es un chip en dos. Es por eso que a veces se lo denomina "IBM 6x86", que parece menos intimidante para el comprador.
pentium pro
Mientras AMD y Cyrix sufrían con este particular Vía Crucis, Intel decidió innovar en computadoras y lanzó un "super-micro", que tenía la idea original de llamar Pro (Professional).
Este micro estaba más overclockeado que el Pentium, tenía un núcleo más refinado, incluía una unidad matemática aún más rápida y, sobre todo, tenía la memoria caché de segundo nivel en el chipset. Esto no quiere decir que se trate de una nueva caché interna, término reservado para caché de primer nivel.
Un Pentium Pro tiene una caché de primer nivel junto al resto del ordenador, así como una caché de segundo nivel "en la habitación de al lado", apenas separada un centímetro del corazón del ordenador y a la misma velocidad que éste. , no a la velocidad de la placa micro (inferior); Digamos que es semi-interno. La computadora es lo suficientemente grande como para acomodar el caché y se encuentra en un zócalo rectangular llamado zócalo 8.
El único problema con esta computadora era su naturaleza profesional. Además de ser muy costoso, solo necesitaba ejecutar un software de 32 bits. Con software de 16 bits, o incluso una combinación de 32 bits y 16 bits como Windows 95, funciona menos que un Pentium clásico. Sin embargo, literalmente vuela en Windows NT, OS/2 o Linux.
Pentium MMX
Es un pequeño elemento de la filosofía de Intel. Con un gran chip como el Pentium Pro ya en el mercado y solo 3 meses después del lanzamiento del Pentium II, decidió extender un poco más la tecnología ya obsoleta de los Pentium clásicos en lugar de ofrecer estas nuevas soluciones a un precio razonable.
Así que se inventó un nuevo conjunto de microcomandos que, para ser modernos, tenían que ver con el rendimiento de la aplicación.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 179
multimedia, y los llamó MMX (MultiMedia Extensions). Prometieron que el nuevo Pentium, con MMX y el doble de caché (32 KB), podría tener hasta un 60% más de rendimiento!!
En ocasiones la ventaja puede llegar al 25%, y sólo en aplicaciones muy optimizadas para MMX (ni Windows 95 ni Office, por ejemplo). En el resto no supera el 10%, que también se debe casi en su totalidad al doble aumento de la memoria caché interna.
Entonces, ¿la ventaja del chip? Que su precio final acaba siendo el mismo que si no fuera por MMX. Además, consume y se calienta menos porque tiene un voltaje reducido en el núcleo del chip (2,8 V). Por cierto, el modelo de 233 MHz (66 MHz en placa para 3.5) está tan ahogado por esta "nota" que corre un poco más de 200 (66 para 3).
pentium II
¿El nuevo súper chip extra? Bueno, de ninguna manera. De hecho, es el viejo Pentium Pro, retirado antes de tiempo, con algunos cambios (no todos para mejor) y en una nueva presentación maravillosa, el contenedor SEC: una pequeña caja negra que, en lugar de un enchufe, se enchufa en un enchufe llamado Recepción 1.
Los cambios de Pro son:
• Optimizado para MMX (no sirve de mucho, pero debería ser bueno, chicos). • nuevo empaque y enlace para la tarjeta (para eliminar competencia como
Ya veremos); • mejor rendimiento de 16 bits (ahora mejor que un Pentium en Windows 95,
pero a costa de desperdiciarlo; es puramente de 32 bits). • El caché secundario encapsulado cerca del chip (semi-interno, por así decirlo), pero yo
la mitad de la velocidad de eso (un paso por debajo del Pro, que funcionaba a la misma velocidad, reduciendo los costos de producción).
Vamos, un chip "Pro 2.0" con muchas luces y algunas sombras. La sombra más grande, su método de conexión, "Slot 1". Intel lo patentó, que es un poco como patentar un enchufe cuadrado en lugar de uno redondo (ahorro de espacio, no seamos puristas). El caso es que el cambio buscaba que las computadoras fueran todas de la marca Intel. ¡Y decían que los sistemas propietarios eran cosa de Apple!
Por supuesto, durante mucho tiempo fue el mejor chip del mercado, especialmente después de que se descontinuó el Pro.
AMD K6
Un chip fiable, mucho mejor que el K5. Contenía la "magia" de MMX, así como un diseño interno increíblemente innovador y un caché interno de 64 KB (no hace tanto tiempo que los cachés externos eran tan grandes).
se "encaja" en una ranura Pentium normal (una ranura 7, para ser exactos) y el caché secundario está en la placa base, de la manera clásica. Sin embargo, su rendimiento es muy bueno: mejor que un MMX y sólo un poco peor que un II, siempre que esté probado en Windows 95 (NT es
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 180
terreno fértil para el Pentium II).
Aunque es un poco peor para los cálculos de punto flotante (CAD y juegos), para la oficina es la elección en todo el mundo... excepto en España. Nos encanta "Intel Pentium Inside" aquí, y la gente no compraría nada sin esa frase, por lo que casi nadie lo vende, especialmente por los precios ridículos en lugares como EE. UU. o Alemania. Oferta y demanda, como todo lo demás. Una buena idea no es suficiente, hay que convencer. De todos modos, incluso IBM lo usa en algunos de sus equipos. Debe haber una razón.
6x86MX (M2) para Cyrix (i IBM)
Nada que añadir a lo dicho de los clásicos 6x86 y AMD K6. Bueno, un chip muy bueno para el trabajo de oficina, incluido MMX, y nunca debe elegirse para CAD o juegos (peor que AMD).
Celeron (Pentium II)
En resumen: un Pentium II sin caché secundaria. Diseñado para liquidar el mercado de placas base que no son Pentium II (socket 7) y liquidar permanentemente a AMD y otras empresas disruptivas que utilizan estas placas. No muy recomendable, rendimiento muy inferior al Pentium II, casi idéntico al Pentium MMX (según la propia Intel). Para obtener más información, consulte la sección Temas relacionados de los artículos de la placa base.
AMD K6-2 (K6-3D)
Es una revisión del K6, con un núcleo similar, pero agrega capacidades 3D con lo que AMD llama tecnología 3DNow!. (algo así como MMX para 3D).
Por lo general, también se ejecuta en un bus de 100 MHz para caché y memoria, lo que hace que funcione como un Pentium II en casi todas las condiciones, e incluso mucho mejor que cuando se trata de juegos 3D modernos (ya que tienen que estar optimizados para este chip o utiliza DirectX 6 de Microsoft.
microprocesadores actuales
Los que incorporan ordenadores ahora se venden en las tiendas. Esta categoría obviamente tiene una fecha de "caducidad", y en este acelerado mundo del hardware, a menudo es muy corta...
AMD K6-III
Un micro casi idéntico al K6-2, excepto por el "pequeño detalle" de incluir 256 KB de caché secundaria a bordo funcionando a la velocidad del micro (es decir, 400 MHz o más), al estilo del Celeron Mendocino.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 181
Esto lo hace mucho más rápido que el K6-2 (a veces incluso más rápido que el Pentium III) en aplicaciones con uso intensivo de caché, como la automatización de oficinas o casi todas las aplicaciones "comerciales". Sin embargo, en muchos juegos la diferencia no es tan grande (y aún requiere el uso de las instrucciones de 3DNow! para aprovecharlo al máximo).
Celeron "A" (caché de comunicaciones)
Una revisión de Celeron muy interesante que incluye 128 KB de memoria caché secundaria, una cuarta parte de la cual tiene un Pentium II. Pero mientras esta caché en el Pentium II corre a la mitad de la velocidad interna de la computadora (a 150 MHz para un Pentium II de 300 MHz, por ejemplo), en el nuevo Celeron corre a la misma velocidad que la computadora, o sea a: 300 MHz o ¡más!
Gracias a esto, su rendimiento es casi idéntico al de un Pentium II a la misma velocidad de reloj, lo que motivó que fuera reemplazado como modelo de entrada en el mercado, quedando los Pentium III y 4 como modelos de gama alta.
Actualmente solo se fabrica en formato Socket 370, un formato similar a los antiguos Pentiums con un coste más asequible que el socket 1. Dependiendo de la revisión del core que estés utilizando necesitarás alguna variante de este socket: PPGA para los antiguos Mendocino core y FC -PGA en el moderno Coppermine-128.
Pentium III
Este micro sería para el Pentium II lo que el K6-2 fue para el K6. es decir, su única diferencia significativa radica en la integración de algunas instrucciones nuevas (SSE, Streaming SIMD Extensions), que aumentan el rendimiento matemático y multimedia... pero solo en aplicaciones específicamente optimizadas para ello.
Los primeros modelos con el núcleo Katmai se construyeron con el mismo factor de forma Slot 1 que el Pentium II, pero la revisión actual de Coppermine de ese pequeño utiliza principalmente la ranura 370 FC-PGA. Muchos de nosotros llamamos al Pentium III Coppermine "el verdadero Pentium III" porque tener el caché secundario de 256 KB integrado en el núcleo de la computadora mejora su rendimiento en todo tipo de aplicaciones (incluso las no optimizadas). Pero eso podría no ser suficiente para vencer al siguiente pequeño en esta lista.
AMD Durón
Una computadora casi idéntica a la Athlon Socket A (no presente para el socket A), pero con menos memoria secundaria (64 KB), aunque está integrada (es decir, más rápida, el caché corre a la misma velocidad que la computadora). Excelente relación calidad-precio, también es un gran candidato para el overclocking... una verdadera joya, aunque se supone que está dirigido al "mercado de consumo".
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 182
AMD Athlon (K7)
La gran apuesta de AMD: un micro con una arquitectura completamente nueva que permite ser el más rápido en todo tipo de aplicaciones. Caché de primer nivel de 128 KB (cuatro veces más que Pentium III), bus de 200 o 266 MHz (en realidad, 100 o 133 MHz, por supuesto, con el doble uso de cada señal), caché secundario de 512 o 256 KB (256 KB integrados = más rápido), ¡3D ahora! para multimedia... y el mejor micro para cálculos matemáticos (¡gran cambio cuando se trata de AMD!).
Su único pequeño inconveniente es que necesita placas base especialmente diseñadas para él, debido a su nuevo bus de 200 MHz y superior y métodos de conexión, "Slot A" (por supuesto el mismo que el slot 1 de Intel, pero incompatible con él... entre otros cosas porque Intel no quería licenciar AMD) o "Socket A" (un zócalo cuadrado similar al zócalo 370 pero con muchos más pines). Los modelos actuales usan el núcleo Thunderbird con un caché secundario incorporado.
Puntuación Athlon (XP)
En 2001, Intel lanzó la arquitectura Pentium 4 (nombre en código Willamette), que tenía una microarquitectura radicalmente diferente a los núcleos Athlon y P6. Aunque el Pentium 4 admite velocidades de reloj más altas, el rendimiento de su arquitectura por ciclo de reloj es menor. Las velocidades más altas han llevado a muchos a creer que el rendimiento del Pentium 4 es superior, incluso en los resultados de las pruebas comparativas.
Si bien varios analistas de la industria predijeron que el P4 una vez más limitaría a AMD al mercado de gama baja/bajo costo, AMD respondió con revisiones incrementales a su núcleo estrella K7. Palomino introdujo un motor de recuperación previa de memoria inteligente, compatibilidad con SSE de Intel y caché L2 en chip, con una mejora de la velocidad de alrededor del 10 %.
Luego, AMD recuperó la nomenclatura PR, que mostraría el rendimiento relativo del reloj de estos nuevos Athlons en comparación con las versiones anteriores. Para un número de modelo determinado, un procesador Pentium 4 con una velocidad de reloj igual al número muestra un rendimiento comparable en una amplia gama de pruebas. Por este motivo, el etiquetado PR fue ampliamente aceptado, a diferencia de lo que ocurría con los sistemas K5. AMD también se aseguró de que las pantallas de arranque del hardware muestren el número de modelo y no los MHz reales.
Intel contraatacó a AMD acelerando sus procesadores y, durante un tiempo, AMD tuvo que defenderse. En particular, el núcleo "Pura sangre" con tecnología de 130 nm (2002) sufrió problemas inesperados de calentamiento y tuvo que ser colocado en revisión B con una capa extra de metal para mejorar la disipación de calor. Más tarde, se introdujo el núcleo "Barton", que aumentó la memoria caché L2 a 512 KB. En cada revisión, AMD ha hecho lo suficiente para mantener el rendimiento de sus Athlons en niveles competitivos y evitar la relegación al mercado de gama baja.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 183
Geoda (Cyrix)
En agosto de 2003, AMD también adquirió el negocio Geode (originalmente Cyrix MediaGX) de National Semiconductor para expandir su línea de productos x86 existente para sistemas de propósito general. A mediados de 2004, lanzó los procesadores Geode de bajo consumo con una velocidad máxima de 1,4 GHz.
AMD64 / K8
K8 es una revisión importante de la arquitectura K7, cuya mejora más notable es la adición de extensiones de 64 bits al conjunto de instrucciones x86. Esto es significativo para AMD, ya que señala un intento de definir el estándar x86 en sí mismo en lugar de seguir los estándares de Intel. Y en este contexto, AMD tuvo éxito. La historia cambió y Microsoft se hizo cargo del conjunto de instrucciones de AMD, dejando que Intel transformara la especificación de AMD (EM64T). Otras características notables del K8 son el aumento de registros de uso general (de 8 a 16 registros), la arquitectura Direct Connect y el uso de HyperTransport.
El proyecto AMD64 puede ser la culminación de la estrategia visionaria de Jerry Sanders, cuyo objetivo corporativo para AMD era convertirla en una poderosa empresa de investigación por derecho propio, no solo en una fábrica de clones baratos con márgenes reducidos.
AMD Opteron es la versión de servidor empresarial de K8. y aunque fue diseñado por la empresa para competir con la serie IA-64 Itanium de Intel, debido al bajo volumen de ventas y producción de esta última, actualmente compite con la serie Xeon de Intel. El liderazgo tecnológico de AMD ha aumentado considerablemente su credibilidad y alcance en el sector empresarial del mercado.
AMD64, anteriormente conocido como x86-64, es una arquitectura basada en la extensión del conjunto de instrucciones x86 para manejar direcciones de 64 bits creadas por AMD. Además de ser una extensión simple, contiene mejoras adicionales, como duplicar el número y el tamaño de los registros de uso general y las instrucciones SSE.
El primer procesador que admitió este conjunto de instrucciones fue el Opteron, lanzado en abril de 2003. Posteriormente se implementó en varias variantes de Intel Athlon 64 y Pentium 4, en este último caso con una versión de Intel llamada EM64T.
descripción de la arquitectura
El conjunto de instrucciones AMD x86-64 (más tarde rebautizado como AMD64) es una extensión directa de la arquitectura x86 a una arquitectura de 64 bits, motivada por el hecho de que los 4 GB de memoria direccionados directamente por bits de CPU de 32 bits no son más que suficientes. para todas las aplicaciones. Algunos de los cambios:
• Discos nuevos. Se ha aumentado el número de registros generales de 8 en procesadores x86-32 a 16, y el tamaño de todos estos registros se ha aumentado de 32 bits a 64 bits. Además, el número de registros MMX es 128
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 184
Los bits (utilizados para instrucciones SIMD extendidas) se han aumentado de 8 a 16. Los registros adicionales aumentan el rendimiento.
• Espacio de direcciones más grande. Debido a su arquitectura de 64 bits, la arquitectura AMD64 puede manejar hasta 256 terabytes de memoria en sus implementaciones actuales. Esto se compara con 4 GB en x86-32, de los cuales solo la mitad está disponible para aplicaciones en la mayoría de las versiones de Microsoft Windows, el sistema operativo dominante en entornos domésticos. Las implementaciones futuras de la arquitectura AMD64 pueden proporcionar hasta 2 exabytes de memoria disponible. Si las búsquedas en la memoria se utilizan correctamente, los sistemas operativos de 32 bits pueden acceder a algunos de los rangos de direcciones físicas sin tener que ejecutarse en modo de ejecución prolongada. Aunque la memoria virtual para todos los programas en modo de 32 bits está limitada a 4 GB.
• Llamadas al sistema más rápidas. Debido a que la segmentación no es compatible con el modo de 64 bits, las llamadas al sistema no tienen los retrasos asociados con el almacenamiento y la recuperación de información de segmentación, ni necesitan realizar las comprobaciones de protección de nivel de segmentación necesarias. Por lo tanto, AMD introdujo una nueva interfaz de llamada del sistema a la que solo se accede mediante el comando "SYSCALL". Aunque los sistemas operativos aún pueden usar el sistema de interrupción para las llamadas al sistema, es más rápido usar "SYSCALL" en el modo de 64 bits.
• Instrucciones SSE. La arquitectura AMD 64 incluye extensiones Intel SSE y SSE2, mientras que las CPU más nuevas también incluyen SSE3. También se admiten las instrucciones x87 y MMX.
• Bits NX. El bit NX es una función del procesador que permite que el sistema operativo prohíba la ejecución de código en el área de datos, lo que mejora la seguridad. Esta función está disponible en los modos de 32 y 64 bits y es compatible con Linux, Solaris, Windows XP SP2 y Windows Server 2003 SP1.
modos de operacion
Modo de operación requerido por
Sistema operativo
Es necesario recolectar
la aplicación
tamaño de dirección predeterminado
tamaño estándar de
operadores
extensiones de registro
tamaño estándar de
registrarse para fines generales
modo de 64 bits sí 64 sí 64
32
32
32 Modo largo Modo de compatibilidad
Disfruta del sistema operativo de 64 bits
No
16 16
No
dieciséis
Modo de Modo SO de 32 no 32 32 no 32
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 185
protegido 16 16
8086 modo virtual
algo hereditario
arv
Antiguo sistema operativo de 16 bits en funcionamiento real
16 16 16
Explicación de cómo funciona.
Hay dos características principales de esta arquitectura:
Modo largo Este es el principal modo operativo proporcionado en la arquitectura. Es una combinación del modo nativo de 64 bits del procesador y un modo de 32 bits para compatibilidad. También descarta algunas de las características subdesarrolladas o menos utilizadas del 80386. Lo utilizan los sistemas operativos de 64 bits. Los partidarios de esta función incluyen Linux, algunos BSD, Solaris 10 y Windows XP Professional, edición x64. Dado que el conjunto de instrucciones es el mismo, no hay mucha penalización de rendimiento para el código x86. Este no es el caso de la arquitectura Intel IA-64, donde las diferencias en el ISA subyacente significan que ejecutar código de 32 bits equivale a usar un procesador completamente diferente. Independientemente, en AMD 64, las aplicaciones x86 de 32 bits aún pueden beneficiarse de una versión de 64 bits. Los registros adicionales disponibles en código de 64 bits pueden ser utilizados por un compilador de alto nivel para la optimización. Usando el modo de ejecución prolongada, un sistema operativo de 64 bits puede ejecutar aplicaciones de 32 y 64 bits simultáneamente. Además, x86-64 incluye soporte nativo para ejecutar aplicaciones x86 de 16 bits. Microsoft ha excluido explícitamente la compatibilidad con aplicaciones de 16 bits en la versión x64 de Windows XP Professional debido a problemas al ejecutar código x86 de 16 bits con el emulador WoW64. Modo heredado El modo utilizado por los sistemas operativos de 16 bits, como MS-DOS, y los sistemas operativos de 32 bits, como Windows XP. En este modo, solo se puede ejecutar código de 16 o 32 bits. Los programas de 64 bits (como el instalador de GUI para Windows XP Professional x64 y Windows Server 2003 x64) no se ejecutarán.
Investigación de mercado
AMD64 representa un cambio con respecto al pasado de AMD, cuyo comportamiento era seguir los estándares de Intel manteniendo el comportamiento anterior de Intel al expandir la arquitectura x86 del 8086 de 16 bits al 80386 de 32 bits, siempre sin desaprobar la compatibilidad con versiones anteriores. Se agregó la arquitectura AMD64 x86 de 32 bits (IA-32).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 186
Grabaciones de 64 bits con características de compatibilidad completa de 32 bits y 16 bits para el software existente. Incluso el modo de 64 bits permite la compatibilidad con versiones anteriores, lo que facilita la migración de herramientas x86, como compiladores, a la arquitectura AMD64 con un esfuerzo mínimo. La arquitectura AMD64 tiene características como el bit NX.
implementaciones
Los siguientes procesadores implementan la arquitectura AMD64:
• AMD K8 o AMD Athlon 64 o AMD Athlon 64 X2 o AMD Athlon 64 FX o AMD Opteron o AMD Turion 64 o AMD Sempron (algunos modelos "Palermo" con E6)
• EM64T o Intel Xeon (algunos modelos de 'Nocona') o Intel Pentium 4 (algunos modelos de 'Prescott') o Intel Pentium D
Resumen de diseño y características de AMD 64 FX DUAL CORE HT
La tecnología AMD64 ofrece un rendimiento de software innovador y nuevas experiencias y capacidades informáticas. Concretamente la tecnología AMD64:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 187
• Proporciona el más alto nivel de rendimiento en muchas de las aplicaciones de 32 bits actuales sin tener que realizar cambios en ellas.
• Habilita la computación simultánea de alto rendimiento de 32 bits y 64 bits, brindando a los usuarios una manera simple, atractiva y asequible de aprovechar las nuevas aplicaciones del mañana.
• Duplica el número de escrituras internas para un mejor rendimiento. • Expande significativamente la capacidad de acceso a la memoria más allá de los 4 GB, lo que la convierte
brindando un realismo sorprendente para aplicaciones con uso intensivo de gráficos, como juegos 3D, así como salida en tiempo real para aplicaciones con uso intensivo de memoria, como aplicaciones de contenido digital
• Protección antivirus mejorada para Windows® XP SP2
Tecnología HyperTransport™
• La tecnología HyperTransport™ con frecuencia de reloj dual y velocidad de transmisión de datos bidireccional de 2000 MHz proporciona una conexión rápida y de baja latencia a su sistema de PC. Gracias al tráfico de datos gratuito, puede estar seguro de que sus aplicaciones funcionarán al máximo.
El controlador de memoria Double Data Rate (DDR) incorporado reduce en gran medida uno de los peores cuellos de botella del sistema y uno de los más comunes que se encuentran en los diseños de plataformas actuales: lo que se conoce como latencia de memoria. El controlador de memoria DDR integrado en el procesador AMD Athlon™ 64 FX:
• Proporciona un mayor rendimiento al conectar el procesador directamente a la memoria, lo que reduce drásticamente la latencia de la memoria. Como resultado, mejora drásticamente el rendimiento en muchas aplicaciones, especialmente en las que requieren muchos recursos, como el contenido digital y los juegos en 3D.
• Admite módulos de memoria DDR industriales ampliamente disponibles para sistemas de alto rendimiento
• Incorpora protección ECC, lo que aumenta la confiabilidad del sistema y asegura el buen funcionamiento de sus sistemas.
Almacenamiento en caché en chip de alto rendimiento
• El procesador AMD Athlon 64 FX incorpora el sistema de caché en chip de mayor rendimiento del mundo para computadoras de escritorio. El caché utilizable total de 1152 KB (128 KB L1 + 1024 KB L2) mejora el rendimiento de las instrucciones. El resultado final es un rendimiento significativamente mejorado en muchas aplicaciones, especialmente aquellas que requieren grandes cantidades de memoria, como las aplicaciones de contenido digital.
AMD Digital Media XPress™ admite instrucciones SSE, SSE2, SSE3 y MMX
• Al agregar instrucciones SSE2 a la tecnología 3DNow!™ Professional existente, el procesador AMD Athlon 64 FX es compatible con la amplia gama de software multimedia mejorado que se instala actualmente.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 188
El software adaptado específicamente a este conjunto de instrucciones proporciona imágenes ricas, fluidas y realistas, audio digital preciso y una mejor experiencia web.
* Protección antivirus mejorada. Esta función requiere Microsoft® Windows® XP Service Pack 2 y, de manera predeterminada, solo protege el sistema operativo Windows del usuario contra ciertos códigos maliciosos, específicamente aquellos que realizan ataques de desbordamiento de búfer. Después de instalar Microsoft Windows XP Service Pack 2, los usuarios deben habilitar la protección de su software contra ataques de desbordamiento de búfer. AMD y Microsoft recomiendan enfáticamente que los usuarios continúen usando programas antivirus de terceros como parte de su estrategia de seguridad.
© 2006 Microdispositivos Avanzados, Inc. AMD, el logotipo de la flecha de AMD, AMD Athlon, 3DNow!, AMD Digital Media Xpress, Cool'n'Quiet y cualquier otra combinación son marcas comerciales de Advanced Micro Devices, Inc. HyperTransport es una marca registrada con licencia de HyperTransport Technology Consortium. Linux es una marca comercial de Linus Torvalds. Microsoft y Windows son marcas registradas de Microsoft Corporation en los Estados Unidos y otras jurisdicciones. Otros nombres se utilizan solo con fines informativos y pueden ser marcas comerciales de sus respectivos propietarios.
pentium 4
La última aventura de Intel, que representa un cambio completo en la arquitectura. A pesar de su nombre, internamente tiene poca o ninguna relación con otros miembros de la familia Pentium.
Este es un micro extraño: su diseño permite velocidades de reloj más altas (más MHz... y GHz), pero proporciona mucha menos potencia por MHz que los micros anteriores. Es decir, un Pentium 4 a 1,3 GHz puede ser MUCHO más lento que un Pentium III a "solo" 1 GHz. Para ser competitivo, el Pentium 4 debe funcionar a 1,7 GHz o más.
Por otro lado, contiene importantes mejoras: un bus de 400 MHz (por supuesto se usa el cuádruple de 100 MHz) y nuevas instrucciones para cálculos matemáticos, SSE2. Son muy necesarios para el Pentium 4, ya que el movimiento de coma flotante es mucho más lento que el del Athlon. si el software está especialmente preparado (optimizado) para SSE2, el Pentium 4 puede ser muy rápido.
Es un microprocesador de séptima generación basado en la arquitectura x86 y fabricado por Intel. Es el primer microprocesador con un diseño completamente nuevo desde el Pentium Pro de 1995. El Pentium 4 original, llamado Willamette, funcionaba a 1,4 y 1,5 GHz. y fue publicado en noviembre de 2000.
Para sorpresa de la industria informática, el Pentium 4 no mejoró el antiguo diseño del P6 en las dos formas tradicionales de medir el rendimiento: la velocidad de procesamiento de números enteros o las operaciones de coma flotante. La estrategia de Intel fue sacrificar el rendimiento por ciclo a cambio de más ciclos por segundo e instrucciones SSE mejoradas. Al igual que otros procesadores de Intel, el Pentium 4 se comercializa en una versión para PC de bajo costo (Celeron) y otra destinada a servidores de alto rendimiento (Xeon).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 189
El Willamette, la primera versión del Pentium 4, experimentó importantes retrasos durante el proyecto. De hecho, muchos expertos argumentan que los primeros modelos de 1,3, 1,4 y 1,5 y 3,0 GHz se lanzaron demasiado pronto para evitar extender demasiado la latencia del Pentium 4. Además, los modelos Thunderbird más nuevos de AMD tuvieron un mejor rendimiento que el Pentium III, pero esta línea estaba en su límite de capacidad en este momento. Fueron fabricados mediante un proceso de 180nm y utilizaron el zócalo 423 para conectarse a la placa base.
En lo que respecta a los puntos de referencia, los Willamette fueron una decepción, ya que no superaron claramente a los Thunderbirds o los Pentium III más rápidos. Incluso la diferencia con la serie de bajo costo de AMD (Duron) no fue significativa. Vendió un modesto número de unidades.
En enero de 2001, se agregó a la lista un microprocesador de 1,3 GHz más lento.
En la primera mitad del mismo año, se lanzaron modelos de 1,6, 1,7 y 1,8 GHz, significativamente mejores que los Pentium III. En agosto se lanzaron los modelos de 1,9 y 2,0 GHz.
El Willamette 2.0 GHz fue el primer Pentium 4 en desafiar el liderazgo en rendimiento que anteriormente tenía la serie Thunderbird de AMD. Si bien algunos resultados mostraron una ligera diferencia a favor de AMD, los analistas concluyeron que la diferencia no era lo suficientemente significativa como para decir que un procesador era claramente superior al otro. Este fue un gran paso para Intel, que hasta el lanzamiento de AMD Athlon había sido el rey de la velocidad de los microprocesadores durante casi 16 años sin parar.
En octubre de 2001, el Athlon XP recuperó el liderazgo en velocidad del procesador, pero en enero de 2002, Intel lanzó el nuevo Northwood 2.0 y 2.2 GHz. Esta nueva versión combina un aumento de la memoria caché de 256 a 512 KB con el cambio a la tecnología de fabricación de 130 nanómetros. Dado que el microprocesador constaba de transistores más pequeños, podía alcanzar velocidades más altas consumiendo menos energía. El nuevo procesador funcionaba con el zócalo 478, que había aparecido en modelos posteriores de la serie Willamette.
Con la serie Northwood, el Pentium 4 alcanzó su madurez. La batalla por un mejor rendimiento siguió siendo feroz cuando AMD introdujo versiones más rápidas del Athlon XP. Sin embargo, la mayoría de los observadores concluyeron que el Northwood más rápido siempre estuvo ligeramente por delante de los modelos de AMD. Esto se sintió cuando se retrasó la transición de AMD a la producción de 130 nanómetros. El Pentium IV entre 2,4 y 2,8 GHz era claramente el más rápido del mercado.
En abril de 2002 se introdujo un Pentium 4 de 2,4 GHz, en mayo de 2,53 GHz (que incluía un aumento de FSB de 400 a 533 MHz). Agosto vio el lanzamiento de los modelos de 2,6 y 2,8 GHz, y en noviembre la versión de 3,06 GHz.
El procesador de 3,06 GHz es compatible con Hyper Threading, una tecnología encontrada originalmente en Xeons que permite que el sistema operativo funcione como si la máquina tuviera dos procesadores.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 190
En abril de 2003, Intel sacó al mercado nuevas variantes, entre 2,4 y 3,0 GHz, cuya principal diferencia era que todas incluían la tecnología Hyper-Threading y el FSB era de 800 MHz. Estaba destinado a competir con la serie Hammer de AMD, pero para entonces solo se había lanzado la serie Opteron, que no estaba destinada a competir con los Pentium 4. Por otro lado, el AMD Athlon XP, a pesar de su FSB aumentado de 333 a 400 MHz y velocidades más altas, no pudo igualar a los últimos Pentium 4 de 3,0 y 3,2 GHz. La versión final de 3,4 GHz de Northwoods se lanzó a principios de 2004.
En septiembre de 2003, Intel anunció el Pentium 4 Extreme Edition, poco más de una semana antes del lanzamiento del Athlon 64 y Athlon 64 FX. El diseño era idéntico al Pentium 4 (hasta el punto de que se ejecutaba en las mismas placas base), pero se diferenciaba por tener 2 MB adicionales de caché L3. Compartió la misma tecnología Gallatin que el Xeon MP, pero con una ranura 478 (a diferencia de la ranura 603 del Xeon MP) y tenía un FSB de 800 MHz, el doble que el Xeon MP. También se produjo una versión de enchufe LGA775.
Aunque Intel afirmó que Extreme Edition estaba dirigida a los jugadores, algunos vieron esta nueva versión como un intento de distraer la atención del lanzamiento del Athlon 64. Otros criticaron a Intel por mezclar la serie Xeon (especialmente para servidores) con sus procesadores para uso individual. . usuarios, pero recibió pocas críticas cuando AMD hizo lo mismo con el Athlon 64 FX.
El efecto de la memoria adicional tuvo resultados mixtos. En las aplicaciones de escritorio, la latencia causada por el tamaño de caché más grande hizo que Extreme Edition fuera más lenta que Northwood. Sin embargo, el área en la que se destacó fue la codificación de medios, que superó con creces a los Pentium 4 anteriores y toda la línea de AMD.
El 1 de febrero de 2004, Intel lanzó una nueva versión del Pentium 4 llamada Prescott. Utiliza un proceso de fabricación de 90nm y, además, se realizaron cambios significativos en la arquitectura del microprocesador, lo que llevó a muchos a creer que Intel lo comercializaría como un Pentium V. A pesar de que Prescott funciona a la misma velocidad que un Northwood menos potente, la arquitectura Prescott actualizada permite mayores velocidades y el overclocking es más potente. El modelo de 3,8 GHz es el más rápido del mercado hasta el momento.
Pero los primeros Prescott producían un 60% más de calor que un Northwood a la misma velocidad, y por esta razón muchos los criticaron duramente. Hubo un cambio en el tipo de socket (de socket 478 a LGA 775), lo que aumentó el consumo de energía del microprocesador en un 10%, pero como el sistema de enfriamiento de este socket era más eficiente, la temperatura final bajó unos grados. En revisiones posteriores del procesador, los ingenieros de Intel esperaban temperaturas más bajas, pero esto nunca sucedió en el exterior, excepto a bajas velocidades.
Eventualmente, los problemas térmicos fueron tan graves que Intel decidió abandonar la arquitectura Prescott por completo, y los intentos de ejecutarse por encima de 4 GHz se abandonaron como un desperdicio de recursos internos. También en cuanto a la crítica que se hacía en casos extremos para llevar el procesador Prescott a 5.2GHz para igualar al Athlon FX-55 que andaba a 2.6GHz (*). Dado el lanzamiento de Intel de la arquitectura Pentium 4 diseñada para funcionar a 10 GHz como un farol, esto puede
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 191
ser visto como una de las deficiencias técnicas más significativas, sin duda la más pública, en la historia de Intel.
Según los informes, el Pentium M ahora es el punto de referencia interno para el equipo de diseño de Intel, y el desarrollo en el P4 esencialmente se ha abandonado. En este punto, el pequeño equipo de diseño israelí que produce el Pentium M ahora debe asumir otro proyecto mucho más grande.
¿Por qué la muerte de Prescott resultó en tal desastre? Esto se puede atribuir a las políticas internas de Intel. El departamento de marketing siempre quiso velocidades de procesador más altas para diferenciar sus productos de los de AMD. Los procesadores se diseñaron para las necesidades de marketing, no para las necesidades arquitectónicas. Con carreras basadas en el concepto de la velocidad del procesador, el final del proyecto P4 finalmente ha llegado y tiene consecuencias para muchos miembros del equipo de gestión del departamento.
El Socket LGA775 de Prescott utiliza el nuevo sistema de clasificación y está clasificado en la serie 5XX. El más rápido es el 570J, que funciona a 3,8 GHz. Se cancelaron los planes para microprocesadores de 4 GHz y superiores y se priorizaron los proyectos para construir procesadores duales. principalmente debido a los problemas de consumo de energía y generación de calor de los modelos Prescott.
El procesador 570J también fue el primero en introducir la tecnología EDB, que es idéntica al anterior NX de AMD. El objetivo es evitar que se ejecuten ciertos tipos de código malicioso.
Intel Core dúo
Con dos núcleos de ejecución, el microprocesador Intel® Core™ Duo está optimizado para aplicaciones multiproceso y multitarea. Puedes correr mucho
aplicaciones simultáneas exigentes, como juegos con gráficos potentes o programas que requieren muchos cálculos,
Al mismo tiempo, puedes descargar música o escanear tu computadora con el antivirus en segundo plano.
Con caché compartida de 2M para ambos núcleos más bus frontal de 667Mhz, obtiene el máximo rendimiento mientras
Complementarlo con tarjetas gráficas PCI Express 16X le brinda niveles de próxima generación de procesamiento de juegos portátiles.
Intel® Core™ Duo se ha implementado en computadoras Apple. Esta decisión de la empresa de la manzana mordida permitirá a Apple utilizar el sistema operativo Windows con más naturalidad.
tecnologías futuras
La tecnología de microprocesadores y la fabricación de circuitos integrados están cambiando rápidamente. Hoy en día, los microprocesadores más complejos contienen más de 50 millones de transistores y se espera que contengan más de 800 millones de transistores para 2010.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 192
También es necesario mejorar las técnicas de litografía. Actualmente, el tamaño mínimo de los elementos del circuito es inferior a 0,2 micras. En estas dimensiones, es poco probable que incluso la luz ultravioleta de baja longitud de onda alcance la resolución necesaria. Otras alternativas son usar enlaces de iones y electrones muy estrechos o reemplazar la litografía óptica con litografía que usa rayos X de longitud de onda ultracorta. Con estas tecnologías, las velocidades de reloj superan los 1000 MHz.
Se supone que el efecto limitante de los microprocesadores terminará siendo el comportamiento de los electrones a medida que fluyen a través de los transistores. Cuando las dimensiones son muy bajas, los efectos cuánticos debidos a la naturaleza ondulatoria de los electrones pueden dominar el comportamiento de los transistores y circuitos. Es posible que se requieran nuevos dispositivos y diseños de circuitos a medida que los microprocesadores se acercan a las dimensiones atómicas. La fabricación de futuras generaciones de microchips requerirá técnicas como la epitaxia de haces moleculares, donde los semiconductores se depositan átomo por átomo en una cámara de ultra alto vacío, o la microscopía de túnel de barrido, que hace posible ver e incluso mover átomos individuales con precisión.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 193
Lista de microprocesadores actuales
Lista de AMD:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 194
Lista de inteligencia:
prueba comparativa
Recientemente, los procesadores AMD han tomado la delantera en el mercado de procesadores. Los acuerdos de compatibilidad entre Intel y AMD ahora benefician a Intel, que hace que los procesadores sean compatibles con sus homólogos de AMD. Este cambio en la industria de los procesadores se refleja en las pruebas comparativas, que muestran que los procesadores de la familia Intel Pentium 4 a 3,6 GHz no alcanzan las velocidades informáticas de sus procesadores AMD Athlon 64 3800+ a 2,4 GHz. En estas pruebas, las ventajas de los procesadores Athlon se ven mejor en aplicaciones de oficina, Internet y juegos 3D. Por otro lado, los procesadores Intel mostraron su mejor ángulo en imágenes 3D y aplicaciones de multiprocesamiento.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 195
Ventiladores (FAN) para Micros
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 196
Las memorias:
Como sugiere su nombre, son como ranuras de expansión para tarjetas controladoras. Módulos de memoria (SDRAM, en nuestro caso) insertados en estas ranuras para conectarse a la placa base.
Tipos de zonas de memoria o bancos de memoria:
si 30 pines
I 72 pinos
Dimm 168 Pinos
Dimm-DDR 184 pinos
Dimm-DDR2 240 pines
Tipo SIMM
muesca de entrada
muesca de entrada
Ranuras DDR y DDR2
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 197
Los tipos de recuerdos
Una computadora tiene memoria física y dispositivos de almacenamiento. Distinguimos entre dispositivos de almacenamiento que mantienen los datos de forma permanente e inmutable, al menos hasta que el usuario decida borrarlos o modificarlos. En el concepto de memoria física se diferencia porque los datos se conservan sólo durante el tiempo necesario de uso (no más allá del apagado del PC).
Hay dos grupos de memorias físicas, volátiles y no volátiles. La primera se identifica como RAM (Random Access Memory) y la segunda como ROM (Read Only Memory).
En PC existen las siguientes variantes:
• Memoria virtual • RAM • ROM • Caché • Grabadora
tipo DIMM
Cada tipo de ranura de memoria RAM tiene
Muesca para una correcta inserción.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 198
Memorias RAM:
RAM (memoria de acceso aleatorio), un tipo de memoria a la que se puede acceder aleatoriamente. Es decir, se puede acceder a cualquier byte de la memoria sin pasar por los bytes anteriores. La RAM es el tipo de memoria más común en computadoras y otros dispositivos como impresoras.
Hay dos tipos principales de RAM:
• DRAM (RAM dinámica), RAM dinámica • SRAM (RAM estática), RAM estática
Los dos tipos difieren en la tecnología que utilizan para almacenar los datos. La RAM dinámica debe actualizarse cientos de veces por segundo, mientras que la RAM estática no necesita actualizarse con tanta frecuencia, lo que la hace más rápida pero también más costosa que la RAM dinámica. Ambos tipos son volátiles, lo que significa que pueden perder su contenido cuando se elimina la energía.
registro de la cpu
CACHÉ Nivel 1 Nivel 2
GOLPEAR, GOLPEAR
RAM FÍSICA
memoria virtual
Dispositivos de almacenamiento BIOS ROM
Unidades
transponible
ROJO
La Internet
Disco duro
áreas de almacenamiento
temporario
áreas de almacenamiento
permanente
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 199
En el lenguaje común, el término RAM es sinónimo de memoria principal, la memoria disponible para los programas. Por el contrario, ROM (memoria de solo lectura) se refiere a la memoria especial que normalmente se usa para almacenar programas que realizan tareas de inicio y diagnóstico de la máquina. La mayoría de las computadoras personales tienen una pequeña cantidad de ROM (unos pocos Kbytes). De hecho, ambos tipos de memoria (ROM y RAM) permiten el acceso aleatorio. Pero para ser precisos, la RAM debería llamarse memoria de lectura y escritura y ROM de solo lectura.
La RAM se llama memoria volátil, mientras que la ROM es memoria no volátil.
La mayoría de las computadoras personales contienen una pequeña cantidad de ROM que almacena programas importantes, como los que permiten que la máquina arranque (BIOS CMOS).
Como funciona
En el sistema operativo, cuando el usuario abre aplicaciones, archivos, documentos, etc., todo también se carga en la memoria RAM. Algunas aplicaciones solo se cargan parcialmente para evitar sobrecargar la memoria. Cuando el microprocesador necesita información de la memoria, envía una solicitud al controlador de memoria. Esto informará al microprocesador cuando la información esté disponible.
Los archivos permanecen en la RAM hasta que el usuario guarda los cambios y los cierra. Solo entonces el controlador de memoria elimina las celdas usadas o las direcciones de memoria ocupadas por estos archivos.
Al igual que los microprocesadores, son chips que contienen elementos semiconductores que se combinan para lograr el efecto de almacenar información durante un período de tiempo.
Con muy poco margen de error, podemos modelar los recuerdos como una hoja de cálculo a cuadros con filas y columnas.
Consta de 36 cuadros con 12 filas y 3 columnas, cada celda tiene un número, esta celda puede leer dos estados lógicos, vacía o con datos. para borrarlo o cambiar esos datos, todo eso lo maneja el microprocesador y los programas. Todos estos están conectados al controlador de memoria que indica qué celda se usa y cuál está vacía para almacenar datos.
Para ingresar un cubo, se toman números binarios de direcciones, donde la primera mitad indica la fila y la segunda columna. Cuando desea acceder a una dirección, el controlador de memoria selecciona la fila (Selección de dirección de fila RAS) y hace lo mismo con la columna (Selección de dirección de columna CAS).
Por tanto, la capacidad de memoria de un módulo de memoria o chip está dada por el número de líneas de dirección que podrán localizar una cantidad igual de datos. Consideremos en un chip un módulo DDR 333 de 256 Mb que tiene 32 millones de direcciones con un ancho de 8
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 200
bits cada uno (32 x 8), lo que nos da 256 millones de bits o 32 Mb. Si sumamos los chips incluidos en el módulo de memoria, obtenemos un total de 256 Mb, con un ancho de banda de 64 bits, este último correspondiente al bus. ¿Con qué trabaja la memoria?
¿Cómo es?
Un módulo de memoria consta de chips semiconductores con circuitos integrados. Estos chips están adjuntos y forman parte de los módulos de memoria. Es importante enfatizar la diferencia para no confundir tecnología de chip con tecnología de módulo, es decir, tecnología de módulo con factor de forma.
Imagen en miniatura de un chip
RAM dinámica:
En estas memorias, cada celda o ubicación de memoria consta de un transistor y un capacitor que trabajan juntos para acomodar un estado alto (1) o bajo (0). Esta estructura está hecha de tal forma que el capacitor que almacena energía no la retiene por mucho tiempo, por lo que las memorias formadas por estos componentes electrónicos deben ser actualizadas cada cierto tiempo. Esto significa que el microprocesador debe volver a verificar constantemente el estado de las celdas a través del controlador de memoria para que los datos no se dañen. Otro problema es que el capacitor se carga y descarga muy lentamente en comparación con el transistor, a esta energía se le llama dinámica, esto lleva tiempo y reduce su rendimiento.
Cada par transistor-capacitor está conectado a una línea de dirección y una línea de lectura/escritura de datos. El condensador es lo que contiene los datos y el transistor es lo que se enciende o apaga dependiendo de cuándo se lee o escribe. Cuando un capacitor tiene una carga del 50% o más, se considera 1, por debajo de 0. El tiempo de acceso para leer/escribir y verificar datos está cronometrado e indica la velocidad de la memoria. Actualmente, la velocidad de la memoria es de alrededor de 30 nanosegundos (ns), los modelos de memoria anteriores eran de 60 ns, para hacer todo esto de lectura/escritura y actualización de datos.
Con la misma tecnología, pero con mejoras en los sistemas de transferencia de datos, llegó el desarrollo de las DRAM. Primero vino SDRAM o RAM moderna, que
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 201
sincronizan su funcionamiento (transferencia de datos) con la frecuencia del bus de la placa base, creando así PC66, PC100 y PC133. Luego (2000) apareció RDRAM o Rambus DRAM con poco éxito, técnicamente se diferencian de SDRAM en que son más rápidas (mayor frecuencia y transferencia de 16 bits). Este último es DDR SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory), lo que significa que por cada ciclo de reloj envía dos paquetes de datos en lugar de uno, duplicando y superando así al DIMM (Double Inline Memory Module). La memoria DDR no trabaja el doble de duro, pero puede hacer el doble con la misma frecuencia, superando así a Rambus.
RAM estática:
Mantienen el mismo concepto de filas, columnas y ubicaciones de memoria, lo que cambia es la tecnología de almacenamiento, en vez de un par transistor/capacitor cada celda alberga un flip-flop. Un flip-flop es un componente que puede mantener un estado lógico de forma permanente (sin necesidad de actualizar) hasta que se cambia.
Para esto solo se necesitan dos compuertas (dos transistores), la primera invierte la señal y la segunda lo vuelve a hacer para que siempre pueda tener el mismo estado lógico de salida, esto solo sirve como idea ya que hay muchos detrás, la clave de la estática Las celdas de RAM es que la información entra y permanece sin cambios hasta que se modifica, por lo que debido a que no necesitan un ciclo de actualización, son más rápidas, una celda de RAM necesita 6 transistores para hacer este trabajo. Este tipo de memoria estática se utiliza para el almacenamiento temporal. Ahora la pregunta es ¿por qué esta memoria (estática) no se usa para la memoria principal? La RAM simple y dinámica utiliza dos transistores por celda de memoria y seis estáticos, lo que genera más espacio físico y una memoria más costosa, por lo que se coloca donde realmente se necesita y en una pequeña cantidad.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 202
Estructura microscópica de condensadores y transistores en chips de memoria
Características y tecnologías de la memoria:
En esta parte veremos tipos de memorias, tipos y características, cual es la parte que más reconoce el usuario. Cada tecnología de memoria tiene su propia unidad y dimensiones, número de ranuras y distribución.
tiempo de reacción
Se denomina latencia al tiempo que se tarda en responder a una determinada orden, normalmente el retraso se expresa en el número de ciclos utilizados. En las memorias DRAM tenemos bastantes retrasos, cuando quieres escribir o leer en la memoria, lo primero que haces es especificar el número de fila (RAS Active) y luego el número de columna (CAS), entre una opción y el otro hay un cierto período de tiempo (Lag from RAS to CAS). ¿Qué sucede cuando queremos leer direcciones de memoria antiguas? ¿Tengo que rehacer la selección de línea? Afortunadamente no, gracias a un método llamado BURST que maneja una lectura de memoria lineal, el rendimiento en estos casos depende de la latencia CAS. Una buena combinación de rendimiento sería 2-2-2-5, cuanto más baja, mejor.
sistema de paridad:
Desde un principio, la existencia de errores ha hecho que sean relevantes los mecanismos capaces de detectar y, en su caso, corregir los errores que puedan producirse en las operaciones de lectura/escritura. Hasta la fecha, se utilizan dos métodos principales para garantizar la integridad de los datos: la paridad y el código de corrección de errores ECC ("Control y corrección de errores").
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 203
Es el método más común y tradicional. Consiste en que por cada 8 bits (bytes) de almacenamiento, se añade 1 bit extra (1) si es impar (0). A cambio del aumento del 12,5 % en el tamaño de la memoria, obtiene cierto control sobre la integridad de los datos, ya que este bit adicional contiene información sobre la paridad del conjunto. Existen dos protocolos al respecto: paridad par e impar. Su funcionamiento se describe en la siguiente tabla.
paridad impar par par
Paso 1 El bit de paridad se establece en uno (uno) si los bits de datos contienen un número par de unos. En cambio, si el número es impar, se desactiva.
El bit de paridad se establece en 1 si los bits de datos contienen un número impar de 1 y se desactiva si el número es par.
Paso 2 Los 8 bits de datos y el bit de paridad se almacenan en DRAM.
Los 8 bits de datos y el bit de paridad se almacenan en DRAM.
Paso 3 El circuito de paridad captura los datos antes de enviarlos al procesador.
Si este circuito determina un número impar de 1, el dato se considera válido. El bit de paridad se borra y los bits de datos se envían al procesador.
Si el número de unidades es par, se supone que los datos son incorrectos y se genera un error de paridad.
El modelo de paridad tiene algunas limitaciones, la principal es que puede detectar el error pero no corregirlo (no sabe qué bit está mal). Además, si hay más de un bit defectuoso, los bits defectuosos pueden cancelarse y ocultar el error (sin embargo, la posibilidad de que esto ocurra es remota).
Paridad artificial.
Algunos fabricantes de equipos de gama baja utilizan un chip de paridad artificial. De hecho, este chip no almacena bits adicionales con paridad de datos. En cambio, generan un bit adicional cuando los datos deben enviarse al verificador de paridad con el valor correcto. En realidad, es un método para engañar al ajustador de tarifas enviándole siempre la señal OK.
Comprobación y corrección de errores (ECC)
La memoria ECC es una memoria más avanzada que puede detectar y corregir automáticamente errores de un solo bit sin detener el sistema. También puede detener el sistema cuando se detecta más de un error. Sin embargo, la memoria ECC requiere más recursos del sistema para almacenar datos que la memoria de paridad, lo que provoca cierta degradación del rendimiento en el subsistema de memoria.
El sistema trabaja con el controlador de memoria y agrega los bits ECC a los bits de datos almacenados con los bits de datos. Estas piezas adicionales, junto con
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 204
decodificación correspondiente, utilizada para la verificación durante la lectura. Su principal diferencia con la paridad es que puede detectar un error de bit y corregirlo, normalmente sin que el usuario se dé cuenta de que se ha producido un error. Dependiendo del controlador de memoria utilizado, el sistema ECC también puede detectar errores de 2, 3 y 4 bits (extremadamente raros), aunque en este caso no puede corregirlos. En estos casos devuelve un error de paridad.
Tenga en cuenta que la comprobación de errores (ECC o paridad) depende más de la placa base (el tipo de controlador de memoria utilizado) que de la memoria en sí. La memoria proporciona el almacenamiento, pero depende del controlador decidir cómo usarla. En general, para usar la memoria ECC, necesita un controlador que pueda usar esta tecnología.
En ambos casos, paridad o ECC, cuando se detecta un error, se lanza una excepción no detectable (NMI). Lo que sucede a continuación depende del sistema. En algunos casos, el procesador se detiene y comienza una rutina que deja la pantalla en blanco (o azul) y muestra el error. Otros le permiten ignorar el error, guardar el trabajo en curso y continuar. En cualquier caso, después de uno de estos errores, es una buena idea ejecutar la computadora a través de una prueba de memoria especializada, más severa que la que hace BIOS POST.
En los sistemas Windows, es común que los errores de memoria durante la carga del sistema generen mensajes de advertencia que indican que un archivo importante está dañado o falta y que es necesario reinstalar el sistema. En estos casos, es importante realizar una verificación exhaustiva de la memoria antes de realizar cambios en el software.
RAM registrada (o conocida por algunos como RAM con búfer): Básicamente, podemos decir que todos los contactos del módulo de memoria usan un búfer basado en registros, excepto los encargados de proporcionar la señal del reloj. De esta forma, se consigue un aumento de la velocidad durante la transferencia continua de datos (gracias al búfer) y es posible instalar más de 4 DIMM en un mismo controlador de memoria. el único inconveniente es una pequeña pérdida de retraso (exactamente 1 ciclo de reloj), pero a veces (dependiendo del conjunto de chips) se puede cubrir.
Chip ECC en el medio de la unidad
de memoria
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 205
Latencia tRCD o Ras-to-CAS: El tiempo entre una solicitud RAS y un CAS es muy rápido. Si tuviera que decirlo más tarde, diría que es la cantidad de ciclos de reloj necesarios entre encontrar la fila de datos en la memoria y encontrar la columna. El valor pequeño oscila entre 3 y 5 ciclos, pero tiende a no tener demasiado impacto en el rendimiento. Esto suele deberse a que secuencias más o menos grandes de bits de datos suelen almacenarse juntas en la misma línea de memoria, por lo que no es necesario volver a seleccionar las líneas con tanta frecuencia como las columnas.
tRP o RAS-Precharge o Row-precharge delay: Es el número de ciclos que tarda la memoria en dejar de acceder a una fila y empezar a acceder a otra. Al igual que tRCD, su valor varía entre 3 y 5 en los sistemas actuales. Este valor puede tener un impacto significativo en el rendimiento si los programas ocupan bloques de memoria muy grandes que abarcan varias líneas.
Retraso tRAS o Active-to-Precharge: se refiere al retraso de los ciclos entre el momento en que los pines del módulo de memoria reciben la secuencia de recuperación de datos y el comienzo de la secuencia CAS. En general, es el retraso más largo de la historia, de 5 ciclos en adelante en la mayoría de los recuerdos... y tan brutal.
Respecto a este último parámetro en tRAS, existen opiniones encontradas entre los fabricantes de memoria. Mushkin, por ejemplo, no aclara el timing de tRAS... insiste en que es engañoso y erróneo por parte de las empresas de memoria... tRAS adecuado: CAS + tRCD + 2... Habría que comprobar si las memorias con Los tiempos 2 -2 -2-5 funcionan mejor que 2-2-2-6.
Tasa de CMD: según el fabricante de memoria Mushkin, este parámetro, generalmente establecido en 1T y 2T, es un retraso del conjunto de chips que NO está determinado por la calidad de la memoria y tiene que ver con ubicar una dirección de memoria entre diferentes bancos de memoria FÍSICA. La tasa de CMD solo afectará si se instaló más de un módulo de memoria. La experiencia sugiere que se administra mejor a 1T, y si es necesario reducirlo a 2T para lograr estabilidad, se recomienda que compare las dos configuraciones para ver si la ganancia en MHz compensa la pérdida de rendimiento de la configuración de 2T.
tWR - Write Recovery Time: Es el número de ciclos de reloj necesarios entre la escritura de datos y poder solicitar otro comando de Precarga. Se requiere tWR para garantizar que todos los datos en el búfer de escritura se puedan escribir correctamente en la memoria principal.
tRC - Row Cycle Time: Es el intervalo de tiempo mínimo entre sucesivas instrucciones ACTIVAS dirigidas al mismo banco de memoria. Este valor debe corresponder a la siguiente suma: tRC = tRAS + tRP.
tRRD - Retardo Línea Activa a Línea Activa: Es el tiempo mínimo entre comandos ACTIVOS sucesivos, sin embargo se dirige a diferentes bancos de memoria.
tCCD - Retardo de dirección de columna a dirección de columna: Es el retardo que ocurre entre el cambio de posiciones de dos columnas en la misma fila.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 206
tWTR - Retardo interno de escritura para un comando de lectura: Es la pausa que debe ocurrir después de que se envía a memoria el último dato de una operación de escritura y hasta que se solicita un comando de lectura.
Otros valores que aparecen en las opciones para cambiar en memoria son:
Max Async Latency: Es un valor cuya configuración depende de la memoria específica y de nuestra placa base. Si bajamos de los 6ns, perdemos potencial de overclocking, a cambio de una pequeña ganancia de ancho de banda. Lo ideal es mantenerlo en 7 ns y aumentarlo a 8 ns en caso de memoria volátil. No es bueno lidiar con valores demasiado bajos o demasiado altos.
Tiempo de Lectura del Preámbulo: Sus valores pueden variar entre 2.0 y 9.5 ns, en pasos de 0.5 ns. En general, es bueno mantener este valor en AUTO. Si desea ajustarlo, los valores por debajo de 4ns probablemente no permitan un overclocking muy alto. Lo ideal es mantenerlo entre 5ns y 6ns.
Velocidad de acceso:
Actualmente se pueden encontrar sistemas RAM capaces de realizar transferencias a frecuencias del orden de Gbps (gigabits por segundo). También es importante tener en cuenta que la memoria RAM es una memoria volátil, lo que significa que requiere electricidad para almacenar información. En otras palabras, la memoria RAM pierde toda la información cuando apaga su computadora.
La memoria se mueve, como decíamos, a un cierto número de ciclos por segundo. Esto se conoce como "Velocidad" de memoria y se expresa en Mhz. Por ejemplo, hay memorias de 400 Mhz. Otra terminología para identificar memorias es la que comienza con "PC----". esta terminología también viene de velocidad, pero específicamente de ancho de banda... por ejemplo, una memoria PC2100 es una memoria con un ancho de banda de 2.1 GB/s... una PC3200 es una memoria con un ancho de banda de 3.2 GB/p.
¿Y por eso? Porque la frecuencia de la memoria (por ejemplo, 400 Mhz) cuando se multiplica por el ancho de banda del bus de la interfaz (64 bits) nos da el ancho de banda de la memoria... si recordamos que un hercio = (1/s) y que 1 BYTE = 8 bits, entonces hemos dicho ancho de banda 3.2GB/s.
Otra información que nos dice sobre la velocidad de las memorias es su "TIEMPO DE ACCESO" que generalmente se mide en nanosegundos... al hacer la función 1/Tacc podemos obtener la VERDADERA frecuencia teórica máxima a la que operarían las memorias. Por ejemplo, algunas memorias de 2,8 ns funcionarían a un máximo real de 357 MHz, es decir, 714 MHz DDR.
Explicación detallada sobre los tipos de memoria:
Paridad y no paridad: la principal diferencia entre los módulos de memoria con paridad y sin paridad es que la memoria con paridad tiene la capacidad de detectar errores de un solo bit e interrumpir el sistema, mientras que la memoria sin paridad no proporciona detección de errores.
Control y corrección de errores (ECC): la memoria ECC es una memoria más avanzada que puede detectar y corregir automáticamente errores de un solo bit sin detener el sistema. También puede colgar el sistema cuando hay más de un error.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 207
se descubre Sin embargo, la memoria ECC requiere más recursos del sistema para almacenar datos que la memoria de paridad, lo que provoca cierta degradación del rendimiento en el subsistema de memoria.
Acceso aleatorio dinámico (DRAM): DRAM es un tipo de memoria que requiere una actualización constante para mantener las cargas que contienen los datos. Esta "actualización" es la causa principal del retraso entre los hits. Este tipo de memoria puede considerarse obsoleta.
Dram de modo de página rápida (FPM) Dram: la memoria de modo de página rápida es similar a la DRAM pero permite accesos de memoria secuenciales con un retraso mínimo entre ellos. Los tiempos de acceso típicos son 5-3-3-3 para un ancho de banda máximo de 100 MB/s en un sistema de 32 bits y 200 MB/s en un sistema de 64 bits. Este tipo de memoria también puede considerarse obsoleta.
Dram de salida de datos extendidos (EDO): EDO DRAM, también llamado modo de hiperpágina de dram, permite acortar el tiempo del ciclo de memoria al comprimir el tiempo CAS para obtener más datos de salida en una secuencia de acceso determinada. En ciclos de CPU esto es 5-2-2-2. El uso de esta memoria da como resultado un mayor rendimiento informático porque EDO DRAM es aproximadamente un 15 % más rápido que FPM DRAM. La tasa de transferencia máxima (ancho de banda) de EDO DRAM es de aproximadamente 264 megas/s. Este tipo de memoria se considerará casi obsoleta a fines de 1998.
Burst EDO (BEDO) Dram (burst edo dram): BEDO incorpora algunas funciones de modo de ráfaga en EDO DRAM para aumentar aún más el rendimiento. BEDO RAM lee datos en ráfagas, lo que significa que una vez que se proporciona la dirección, los siguientes tres accesos se realizan en un solo ciclo de reloj cada uno, por lo que los datos se leen en ráfagas 5-1-1-1. Este tipo de memoria es más una transición entre EDO DRAM y SDRAM, y nunca estuvo claro que BEDO DRAM estaría en el mercado por mucho tiempo.
DRAM síncrona (SDRAM): la SDRAM se diferencia de la DRAM normal en el uso de una interfaz síncrona. En DRAM estándar, una dirección solo se reconoce cuando se activan las líneas RAS o CAS, mientras que en SDRAM, las direcciones se bloquean en las transiciones de reloj, lo que proporciona una mejora agradable en las tasas de transferencia de datos. Debido a que SDRAM genera direcciones secuenciales internamente, utiliza un modo de ráfaga para generar datos a partir de líneas consecutivas, además de utilizar una canalización para permitir el acceso aleatorio a una línea en cada ciclo de reloj. El acceso a SDRAM es 5-1-1-1, lo que lo hace tan rápido como BEDO RAM, pero puede manejar velocidades de bus superiores a 100 MHz. La tasa de transferencia más alta (ancho de banda) de SDRAM es de aproximadamente 528 megas/s.
DDR SDRAM (también llamada SDRAM II): DDR DRAM es una variante de la memoria SDRAM. La principal diferencia entre SDRAM y DDR SDRAM es que DDR SDRAM tiene la capacidad de utilizar los flancos ascendentes y descendentes del ciclo del reloj para transferir datos, duplicando efectivamente su rendimiento de salida de datos. La tasa máxima de transferencia de DDR SDRAM (ancho de banda) es superior a 1 giga/seg.
Rambus DRAM (RDRAM): RDRAM es un concepto completamente nuevo que utiliza un nuevo paquete de chips con un bajo número de pines, alta velocidad y arquitectura.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 208
síncrona Dado que todos los aspectos de su estructura interna, como la longitud de la ruta, la capacitancia de los pines y la compensación de voltaje, se han redefinido por completo, este tipo de memoria puede ofrecer un rendimiento muy alto. Esta memoria está disponible en los flancos ascendentes y descendentes del ciclo del reloj. Una memoria RAMBUS de un solo canal logra aproximadamente 3 veces el rendimiento de los módulos de memoria SDRAM de 64 bits y 100 MHz. Por ejemplo, la RDRAM de un solo canal tiene un ancho de banda de 1,6 GByte/seg. ¡La principal ventaja de los controladores Rambus puede diseñarse para usar 2 canales Rambus (¡e incluso 4 canales!)!
Modelos de módulos de memoria:
SIMM (módulo de memoria integrado):
Acrónimo de Módulo de memoria único en línea, un tipo de paquete que consiste en una pequeña placa de circuito impreso que contiene chips de memoria, que se inserta en una ranura SIMM en la placa base o tarjeta de memoria. Los SIMM son más fáciles de instalar que los chips de memoria individuales más antiguos y, a diferencia de ellos, se miden en bytes en lugar de bits.
SIMM 30 Pinos
SIMM 72 Pinos
Una computadora usa memoria de nueve bits (ocho bits y un bit de paridad, en 9 chips RAM dinámicos) y memoria sin paridad de ocho bits. En el primer caso, los primeros ocho son para datos y el noveno es para verificación de paridad.
Una pequeña placa de circuito impreso con muchos chips de memoria. Se fabrican con diferentes capacidades de velocidad de acceso (4, 8, 16, 32, 64 Mb) y son 30 switches (8 bit) o 72 switches (32 bit) y bus estándar de 66Mhz. Por lo general, se agrupan en pares y forman un banco de memoria de 64 bits. Estas fueron las unidades que más duraron, ya que su tecnología se conservó durante muchos años.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 209
DIMM (módulo de memoria dual integrado):
DIMM significa "Módulo de memoria dual en línea" y podemos traducirlo como Módulo de memoria lineal doble. Los DIMM comenzaron a reemplazar a los SIMM como el tipo dominante de memoria cuando los microprocesadores Intel Pentium se hicieron cargo del mercado.
Estos son módulos de memoria RAM utilizados en computadoras personales. Es una pequeña placa de circuito impreso que contiene chips de memoria y se inserta directamente en las ranuras de la placa base. Los DIMM se pueden identificar externamente al tener sus contactos (o pines) separados en ambos lados, a diferencia de los SIMM, que tienen los contactos para que los de un lado se conecten con los del otro.
Un DIMM puede comunicarse con la computadora a 64 bits por ciclo de reloj (y algunos a 72 bits) en lugar de los SIMM de 32 bits. Los tipos de DIMM más comunes son SDRAM de 168 pines. Al sincronizar con la frecuencia del bus de la placa base, los DIMM se identifican y ordenan por estos datos: PC66, PC100 y PC133, donde el número corresponde a la frecuencia del bus.
Los módulos de memoria estaban disponibles en capacidades de almacenamiento de 16, 32, 64 y 128 MB, lo que no tiene nada que ver con la velocidad o frecuencia del módulo de memoria.
DDR DIMM (velocidad de datos doble):
DDR, que significa Double Data Rate, significa memoria de doble velocidad de datos en español. Son módulos formados por memorias síncronas (SDRAM), disponibles en paquete DIMM, que permiten la transferencia de datos a través de dos canales diferentes al mismo tiempo en el mismo ciclo de reloj.
Fueron aprobados por primera vez en sistemas con procesadores AMD Athlon. Intel con su Pentium 4 utilizó inicialmente solo memorias RAMBUS, que son más caras. Ante el aumento de las ventas y el buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligada a cambiar de estrategia y utilizar memorias DDR, lo que le permitía competir en precio. Son compatibles con los procesadores Intel Pentium 4 que tienen un bus frontal (FSB) de datos de 64 bits y frecuencias de reloj de 200 a 400 MHz.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 210
También se utiliza la nomenclatura PC1600 a PC4800 ya que pueden transportar una cantidad de 8 bytes de información por ciclo de reloj en las frecuencias descritas.
Muchas placas base permiten el uso de estas memorias en dos modos de funcionamiento diferentes: Canal de memoria único: Todos los módulos de memoria intercambian información con el bus a través de un único canal, para ello basta con insertar todos los DIMM en la misma fila de zócalos. Canal de memoria dual: los módulos de memoria se dividen entre los dos bancos de diferentes zócalos en la placa base, con la capacidad de intercambiar datos con el bus a través de dos canales simultáneos, uno para cada banco.
Estos módulos de memoria utilizan canales de 266 Mhz a 400 Mhz y sus tamaños de almacenamiento de datos son: 128, 256, 512 y 1024 MB. Dispone de 184 pines o contactos de conexión.
especificación del módulo
• PC-1600: módulo de memoria DDR-SDRAM de 100 MHz que utiliza chips DDR-200, ancho de banda de 1600 Mbytes (1,6 GB) por canal.
• PC-2100: módulo de memoria DDR-SDRAM a 133 MHz con chip DDR-266, ancho de banda de 2133 Mbytes (2,1 GB) por canal.
• PC-2700: módulo de memoria DDR-SDRAM a 166 MHz con chip DDR-333, 2667 Mbyte (2,6 GB) de ancho de banda por canal.
• PC-3200: módulo de memoria DDR-SDRAM de 200 MHz que utiliza chips DDR-400, ancho de banda de 3200 Mbytes (3,2 GB) por canal.
• PC-4200: módulo de memoria DDR2-SDRAM a 266 MHz con chip DDR2-533, ancho de banda de 4400 Mbytes (4,4 GB) por canal.
• PC-4800: módulo de memoria DDR2-SDRAM a 300 MHz con chips DDR2-600, ancho de banda de 4.800 Mbytes (4,8 GB) por canal.
• PC-5300: módulo de memoria DDR2-SDRAM a 333 MHz con chip DDR2-667, ancho de banda de 5300 Mbytes (5,3 GB) por canal.
• PC-6400: módulo de memoria DDR2-SDRAM de 400 MHz que utiliza chips DDR2-800, 6400 Mbytes (6,4 GB) de ancho de banda por canal.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 211
Comparación de DIMM y DDR:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 212
Cuadro comparativo DIMM y DDR
operación de autobuses
PC66-22
PC100-333
PC100-222
PC133-333
PC133-222
PC150-333
PC166-333
PC1600-2022
PC2100-2533
PC2100-2033
PC2100-2022
PC2700-2533
PC2700-2032
PC2700-2022
PC3200-3044
PC3200-3033
PC3200-2533
PC3200-2033
PC3200-2032
PC3200-2022
PC3500-3044
PC3700-3044
PC4000-3044
PC4400-3044
PC2-3200-4044
PC2-4300-4044
PC2-5300-5055
PC2-6400-5055
PC600-45
PC700-45
PC800-45
PC1066
PC1200
RIMM3200
RIMM4200
RIMM4800
RIMM6400
Transferencia máxima anual
Chip de reloj de especificaciones usado
MHz/ns tCAS T/ns
RCD T/ns
TRP T/ns
TRAS T/ns
1996 533 MB/s PC66 Intel/JEDEC 66/15 2T/30 2T/30 2T/30 5T/75
1998 800 MB/s PC100 Intel/JEDEC 100/10 3T/30 3T/30 3T/30 5T/50
1999 800 MB/s PC100 Intel/JEDEC 100/10 2T/20 2T/20 2T/20 5T/50
1999 1066 MB/s PC133 Intel/JEDEC 133/7,5 3T/22,5 3T/22,5 3T/22,5 6T/45
2000 1066 MB/s PC133 Intel/JEDEC 133/7,5 2T/15 2T/15 2T/15 6T/45
2000 1200 MB/s PC150 - 150/6,67 3T/20 3T/20 3T/20 7T/47
2000 1333 MB/s PC166 - 166/6 3T/18 3T/18 3T/18 8T/48
2000 1600 MB/s DDR200 JEDEC 100/10 2T/20 2T/20 2T/20 5T/50
2000 2133MB/s DDR266 JEDEC 133/7,5 2,5T/18,8 3T/22,5 3T/22,5 6T/45
2001 2133 MB/s DDR266 JEDEC 133/7,5 2T/15 3T/22,5 3T/22,5 6T/45
2001 2133 MB/s DDR266 JEDEC 133/7,5 2T/15 2T/15 2T/15 6T/45
2001 2666 MB/s DDR333 JEDEC 166/6 2,5 T/15 2 T/18 2 T/18 7 T/42
2002 2666 MB/s DDR333 Micras 166/6 2T/12 3T/18 2T/12 7T/45
2001 2666 MB/s DDR333 JEDEC 166/6 2T/12 2T/12 2T/12 7T/45
2001 3200 MB/s DDR400 Micron/JEDEC 200/5 3T/15 4T/20 4T/20 8T/40
2001 3200 MB/s DDR400 Micras 200/5 3T/15 3T/15 3T/15 8T/40
2001 3200 MB/s DDR400 Micron/JEDEC 200/5 2.5T/12.5 3T/15 3T/15 6T/30
2001 3200 MB/s DDR400 Micron/JEDEC 200/5 2T/10 3T/15 3T/15 6T/30
2002 3200 MB/s DDR400 Micras 200/5 2T/10 3T/15 2T/10 6T/30
2001 3200 MB/s DDR400 Micras 200/5 2T/10 2T/10 2T/10 5T/40
2002 3466 MB/s DDR433 Micras 216/4,6 3T/13,8 4T/18,4 4T/18,4 8T/36,8
2003 3733 MB/s DDR466 Micras 233/4,3 3T/12,9 4T/17,2 4T/17,2 8T/34,4
2003 4000 MB/s DDR500 Micron 250/4 3T/12 4T/16 4T/16 8T/32
2004 4400 MB/s DDR550 Micras 275/3,64 3T/10,9 4T/14,5 4T/14,5 8T/29,1
2004 3200 MB/s DDR2-400 JEDEC 200/5 4T/20 4T/20 4T/20 10T/50
2004 4266 MB/s DDR2-533 JEDEC 266/3,75 4T/15 4T/15 4T/15 12T/45
2004 5333 MB/s DDR2-667 JEDEC 333/3 5T/15 5T/15 5T/15 15T/45
2005 6400 MB/s DDR2-800 - 400/2,5 5T/12,5 5T/12,5 5T/12,5 15T/37,5
1999 1200 MB/s - RAMBUS 300/3,33 7~11T/23,3~33,3 5T/16,7 6T/20 16T/53,3
1999 1600 MB/s - RAMBUS 356/2,80 8~12T/22,4~33,6 7T/19,6 8T/22,4 20T/56
1999 1433 MB/s - RAMBUS 400/2,5 8~12T/20~30 9T/22,5 8T/20 20T/50
2001 2133 MB/s - RAMBUS 533/1.87 - - - -
2004 2400 MB/s - RAMBUS 600/1,67 - - - -
2002 3200 MB/s - RAMBUS 400/2,5 - - - -
2002 4266 MB/s - RAMBUS 533/1.87 - - - -
2003 4800 MB/s - RAMBUS 600/1,67 - - - -
2004 6400 MB/s - RAMBUS 800/1,25 - - - -
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 213
Memorias RIMM (Rambus):
RIMM, acrónimo de Rambus Inline Memory Module, denota módulos de memoria RAM que utilizan una tecnología llamada RDRAM, desarrollada por Rambus Inc. Módulos de memoria SDRAM disponibles estos años.
Los módulos RDRAM RIMM tienen 184 pines y, debido a sus altas frecuencias de operación, requieren disipadores de calor que consisten en una placa de metal que cubre los chips del módulo. Se basan en un bus de datos de 16 bits y están disponibles a velocidades de 300 Mhz (PC-600), 356 Mhz (PC-700), 400 Mhz (PC-800) y 533 Mhz (PC-1066) Los pobres 16 -bit bus tuvo un rendimiento 4 veces menor que DDR. El RIMM de 533 MHz funciona de manera similar a un módulo DDR133, aunque sus latencias son 10 veces peores que DDR.
Originalmente, los RIMM se introdujeron para su uso en servidores basados en Intel Pentium III. Rambus no fabrica RIMM, pero tiene un sistema de licencias para que terceros los fabriquen, siendo Samsung el principal fabricante.
Aunque la tecnología RDRAM tiene niveles de rendimiento mucho más altos que la tecnología SDRAM y las primeras generaciones de DDR RAM, debido al alto costo de esta tecnología, no fue muy aceptada en el mercado de PC. Su apogeo fue durante el periodo de introducción de Pentium 4, para el que se diseñaron las primeras placas base, pero Intel, ante la necesidad de lanzar equipos más económicos, decidió sacar placas base con soporte para SDRAM y posteriormente para DDR RAM, reemplazándola por la última tecnología. en unidades RIMM existentes en el mercado.
Memorias DDR:
DDR, que significa Double Data Rate, significa memoria de doble velocidad de datos en español. Son módulos formados por memorias síncronas (SDRAM), disponibles en paquete DIMM, que permiten la transferencia de datos a través de dos canales diferentes al mismo tiempo en el mismo ciclo de reloj.
Fueron aprobados por primera vez en sistemas con procesadores AMD Athlon. Intel con su Pentium 4 utilizó inicialmente solo memorias RAMBUS, que son más caras. Ante el aumento de las ventas y el buen rendimiento de los sistemas AMD basados en DDR SDRAM, Intel se vio obligada a cambiar de estrategia y utilizar memorias DDR, lo que le permitía competir en precio. Son compatibles con los procesadores Intel Pentium 4 que tienen un bus frontal (FSB) de datos de 64 bits y frecuencias de reloj de 200 a 400 MHz.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 214
También se utiliza la nomenclatura PC1600 a PC4800 ya que pueden transportar una cantidad de 8 bytes de información por ciclo de reloj en las frecuencias descritas.
Muchas placas base permiten el uso de estas memorias en dos modos de funcionamiento diferentes: Canal de memoria único: Todos los módulos de memoria intercambian información con el bus a través de un único canal, para ello basta con insertar todos los DIMM en la misma fila de zócalos. Canal de memoria dual: los módulos de memoria se dividen entre los dos bancos de diferentes zócalos en la placa base, con la capacidad de intercambiar datos con el bus a través de dos canales simultáneos, uno para cada banco.
Memorias DDR2:
DDR2 es un tipo de RAM. Es parte de la familia SDRAM de tecnologías de memoria de acceso aleatorio, que es una de varias implementaciones de DRAM.
Módulo RAM DDR2 de 1 GB con disipador de calor
Los módulos DDR2 pueden funcionar a 4 bits por ciclo, es decir, 2 de salida y 2 restantes en el mismo ciclo, lo que mejora en gran medida el ancho de banda potencial a la misma frecuencia que un DDR tradicional (si un DDR real de 200 MHz tuviera una clasificación de 400 MHz, DDR2 para los mismos 200 MHz reales producen 800 MHz nominales). Este sistema funciona porque dentro de las memorias hay un pequeño búfer que almacena la información para enviarla posteriormente desde el módulo de memoria, este búfer en el caso de DDR1 convencional funcionó, se necesitan 2 bits para transmitir en 1 ciclo, lo único que aumenta la frecuencia final, en DDR2 el buffer almacena 4 bits para enviarlos posteriormente, lo que a su vez duplica la frecuencia nominal sin tener que aumentar la frecuencia real de los módulos de memoria.
Las memorias DDR2 tienen una latencia más alta que las DDR convencionales, lo que degrada el rendimiento. Algunos se preguntarán, ¿no se trata de construir DDR2 con menor latencia? Sí, pero no es tan fácil. El mismo hecho de que el búfer DDR2 pueda almacenar 4 bits y luego transmitirlos es la razón de la mayor latencia, debido al hecho de que se necesita más tiempo de "escucha" del búfer y más tiempo de trabajo de la memoria de los módulos. recopile los 4 bits antes de poder enviar la información.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 215
Propiedades:
• Las memorias DDR2 son una mejora de las memorias de doble velocidad de datos (DDR) que permiten que los búferes de E/S operen al doble de la frecuencia central, lo que permite que ocurran cuatro transferencias durante cada ciclo de reloj.
• Funcionan en los bordes alto y bajo del reloj, en los puntos de 0 y 1,8 voltios, lo que reduce el consumo de energía en aprox. 50% en comparación con los DDR que funcionan a 0 voltios y 2,5 voltios.
• Terminación de la señal de memoria dentro del chip de memoria ("Terminación Integrada" u ODT) para evitar errores de transmisión de la señal reflejada.
• Mejoras funcionales para aumentar el rendimiento de la memoria, la eficiencia y los márgenes de tiempo.
• CAS standby: 3, 4 y 5. • Velocidad de transferencia de 400 a 1024 MB/s y capacidad de hasta 2x2 GB
entonces. • Su desventaja es la mayor latencia de memoria (casi el doble) que la activación
RDA • Estas memorias tienen nombre propio según sus propiedades:
PC4200 512 MB DDRAM 533 MHz PC4200 1 GB DDRAM 533 MHz PC4600 512 MB DDRAM 667 MHz PC4600 1 GB DDRAM 667 MHz PC6400 512 MB ZAM 533 MHz PC6400 512 MB ZAM 6 marcas PC6400 DDR Transuff, STD Kingston, STDc PC 6 Z Algunas indicaciones: ir , V fecha, TRCND.
Papas fritas:
Predeterminado Nombre Reloj Memoria Velocidad del reloj Datos transferidos por segundo
DDR2-533 133MHz 266MHz 533M
DDR2-667 166MHz 333MHz 667M
DDR2-800 200MHz 400MHz 800M
DDR2-1000 250 MHz 500 MHz 1 millón
DDR2-1066 266 MHz 533 MHz 1066 M
DDR2-1150 287MHz 575MHz 1150M
Unidades:
Para uso en computadoras, DDR2 SDRAM se suministra en tarjetas de memoria DIMM de una sola ranura de 240 pines. Los DIMM se identifican por su capacidad de transferencia máxima (a menudo denominada ancho de banda).
Nombre del módulo Reloj Velocidad Tipo de chip Máx. capacidad de carga
PC2-4200 266 MHz DDR2-533 4267 GB/s
PC2-5300 333 MHz DDR2-667 5333 GB/s1
PC2-6400 400 MHz DDR2-800 6.400 GB/s
PC2-8000 500 MHz DDR2-1000 8.000 GB/s
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 216
PC2-8500 533 MHz DDR2-1066 8.500 GB/s
PC2-9200 575 MHz DDR2-1150 9200 GB/s
DDR2-xxx indica la velocidad de reloj real, mientras que PC2-xxxx indica el ancho de banda teórico (aunque generalmente se redondea). El ancho de banda se calcula multiplicando la velocidad del reloj por ocho, ya que DDR2 es una memoria de 64 bits, hay 8 bits en un byte y 64 es 8 por 8.
DDR2 no es compatible con DDR ya que los zócalos son diferentes. La ranura (muesca) de DDR2 está en una posición diferente a la de DDR y la cantidad de pines, también en términos de densidad, es un poco mayor que la de DDR. DDR2 tiene 240 pines, mientras que DDR tiene 184 pines.
Variante GDDR:
El primer producto comercial en afirmar el uso de la tecnología DDR2 fue la tarjeta gráfica nVIDIA GeForce FX 5800. Sin embargo, es importante tener en cuenta que la memoria "DDR2" utilizada en las tarjetas gráficas (oficialmente llamada GDDR2) no es DDR2, sino algo intermedio. . Memorias DDR y DDR2. De hecho, no incluye la (importante) frecuencia de reloj de doble E/S y tiene serios problemas de sobrecalentamiento debido a las clasificaciones de voltaje DDR. ATI desarrolló aún más el formato GDDR, hasta GDDR3, que es más similar a la especificación DDR2, pero con varias adiciones específicas para las tarjetas gráficas.
Después de la introducción de GDDR2 con la serie FX 5800, las series 5900 y 5950 volvieron a usar DDR, pero la 5700 Ultra usó GDDR2 a 450 MHz (en comparación con los 400 MHz de la 5800 o los 500 MHz de la 580Utra de la 5800).
Radeon 9800 Pro de ATI con 256 MB de memoria (no la versión de 128 MB) también usó GDDR2 porque esta memoria necesita menos pines que DDR. La memoria de 256 MB de Radeon 9800 Pro funciona solo 20 MHz más rápido que la versión de 128 MB, principalmente para compensar el impacto en el rendimiento causado por la mayor latencia y la mayor cantidad de chips. la siguiente
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 217
La tarjeta, la 9800 XT, volvió a usar DDR, y ATI luego comenzó a usar GDDR3 en la serie de tarjetas Radeon X800.
Actualmente, la mayoría de las tarjetas ATI y nVIDIA utilizan el formato GDDR3. Sin embargo, ATI ya comenzó a comercializar la X1950 XTX/XT, que utiliza la nueva tecnología GDDR4 (que puede llegar hasta los 2 GHz).
Integración:
DDR2 se introdujo en dos velocidades iniciales: 200 MHz (llamado PC2-3200) y 266 MHz (PC2-4200). Ambos tienen un rendimiento más bajo que sus equivalentes DDR, ya que la mayor latencia hace que el tiempo total de acceso sea hasta el doble. Sin embargo, DDR no se introducirá oficialmente a una velocidad superior a 266 MHz. Existen DDR-533 e incluso DDR-600, pero JEDEC ha declarado que no se estandarizarán. Estas unidades son en su mayoría optimizaciones de proveedores que consumen mucha más energía que las unidades con frecuencias más lentas y no ofrecen un rendimiento superior.
Intel actualmente es compatible con DDR2 en sus conjuntos de chips 9xx. AMD incluye compatibilidad con DDR2 en los procesadores de la plataforma AM2 presentados en 2006. Los DIMM DDR2 tienen 240 pines, mientras que los DIMM DDR tienen 184 y los DIMM SDRAM tienen 168.
Año de introducción Nombre de la tecnología Velocidad máxima:
1987 FPM 50 ns 1995 EDO 50 ns 1997 PC66 SDRAM 66MHz 1998 PC100 SDRAM 100MHz 1999 RDRAM 800MHz 1999/2000 PC133 SRAM 133MHzMHz 00MHz MHz 2002 DDR SDRAM 434MHz 2003 DDR SDRAM 500 MHz DDR2 SDRAM 2004 533 MHz DDR2 SDRAM 2005 667 - 800 MHz
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 218
bus de memoria:
Es una vía o vía a través de la cual la memoria se comunica con el resto del sistema. Hay tres buses, datos, dirección y control. El primero corresponde a las transferencias de datos, el segundo es donde especificas la ubicación de memoria donde quieres especificar la tarea, y el tercero corresponde a las órdenes, es decir, qué hacer con los datos. Ahora concentrémonos en el bus de datos, esto a menudo se llama ancho, p. la capacidad de transferir grandes cantidades de datos en un ciclo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 219
El ancho y la frecuencia del bus deben igualarse, siendo uno el ancho de banda y el otro la velocidad a la que viajan los datos. Este ancho de banda se mide en bits. Ejemplos:
PC66: 8 bytes/ciclo x 66 Mhz = 533 MB/s
PC133: 8 bytes/ciclo x 133 Mhz = 1066 MB/s = 1,06 GB/s
TIPO FRECUENCIA DATOS POR Bus Bicicleta Ancho Banda
SDRAM PC100 100 MHz 1 64 BITS 800 MB/S
SDRAM PC133 133 MHz 1 64 BITS 1066 MB/S
DDR SDRAM PC1600 100 MHz 2 64 BITS 1600 MB/S
RDRAM PC800 400 MHz 2 16 BITS 1600 MB/S
DDR SDRAM PC2100 133 MHz 2 64 BITS 2133 MB/S
RDRAM PC1066 533 MHz 2 16 BITS 2133 MB/S
RDRAM PC1200 600 MHz 2 16 BITS 2400 MB/S
DDR SDRAM PC2700
166 MHz 2 64 BITS 2666 MB/S
RDRAM PC800 400 MHz 2 32 BITS 3200 MB/S
DDR SDRAM PC3200
200 MHz 2 64 BITS 3200 MB/S
RDRAM PC1066 533 MHz 2 32 BITS 4200 MB/S
RDRAM PC1200 600 MHz 2 32 BITS 4800 MB/S
Velocidades de memoria: (RIMM, DDR y DDR2)
TIPO DE BYTE / TASA DE CICLO DE AUTOBÚS
Rambus PC600 2x2 266 Mhz 1,06 GB/s
Rambus PC700 2x2356Mhz 1,42GB/s
Rambus PC800 2x2 400 Mhz 1,6 GB/s
DDR PC1600 2 x 8 200 Mhz 1,6 GB/s
DDR PC2100 2x8 266 Mhz 2,1 GB/s
DDR PC2700 2x8 333 Mhz 2,7 GB/s
DDR PC3200 2 x 8 400 Mhz 3,2 GB/s
DDR2 PC3200 2 x 16 400 Mhz 6,4 GB/s
DDR2 PC3200 2 x 16 533 Mhz 8,5 GB/s
Memoria PROM y EPROM.
Estos son chips de memoria programables de solo lectura, o PROM (Programmable Read-Only Memory). Este tipo de circuito consta de una serie de elementos que actúan como fusibles. Suelen conducir electricidad. Sin embargo, al igual que los fusibles, estos elementos pueden fundirse e interrumpir el suministro de energía.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 220
Los chips PROM están diseñados y fabricados con todos sus fusibles intactos. Se utiliza una máquina especial llamada programador PROM o quemador PROM para quemar los fusibles uno por uno según las necesidades del software que se codificará en el chip. Este proceso se conoce comúnmente como "quemar" la PROM.
Como la mayoría de los incendios, los efectos de una quemadura PROM son permanentes. El chip no puede cambiar, actualizar o revisar el programa interno. Las PROM definitivamente no son para personas que cambian de opinión rápidamente o para la industria que cambia rápidamente.
Afortunadamente, la tecnología nos ha traído otra alternativa: chips de memoria de solo lectura programables y borrables, EPROM. (memoria borrable programable de sólo lectura). Las EPROM son semiconductores de recuperación automática interna porque los datos que contienen se pueden borrar y el chip se puede reutilizar para otros datos o programas.
Las EPROM se distinguen fácilmente de otros chips porque tienen una pequeña ventana transparente en el centro de la cápsula. Invariablemente, esta ventana está cubierta por algún tipo de etiqueta, y por una buena razón: el chip puede borrarse con la luz ultravioleta de alta intensidad que ingresa a través de la ventana.
Si la luz del sol golpea el chip directamente a través de una ventana, el chip se puede borrar sin que nadie se dé cuenta. Debido a su flexibilidad con memoria no volátil y facilidad de reprogramación, simplemente apague la luz y reprograme, las EPROM se encuentran en muchas computadoras.
EEPROM: (Erase Electrically Programmable Read Only Memory), esta memoria se utiliza en los ROMBIOS actuales o dispositivos de almacenamiento externo como tarjetas Flash. El nuevo E viene de electric, el principio de funcionamiento es similar a los anteriores, solo se ha mejorado el sistema de borrado de información, los datos se pueden borrar de las celdas individualmente aplicando un campo eléctrico desde la misma memoria, esto elimina la mirilla en el cristal y sus problemas, la desventaja es que la información se borra byte a byte en lugar de poco a poco, lo que lo hace más lento.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 221
Cachehukommelse:
A medida que aumentaba la velocidad de los microprocesadores, surgió la paradoja de que las memorias principales no eran lo suficientemente rápidas para proporcionarles los datos que necesitaban. Por esta razón, las computadoras comenzaron a construirse con un caché interno ubicado entre el microprocesador y la memoria principal.
Además, la caché contiene los datos más utilizados para reducir el tiempo de espera de la misma. Este aumento en la velocidad (unas 5 o 6 veces más rápido) naturalmente significa un alto aumento en el precio, por lo que no se usa la misma tecnología para la memoria RAM.
Existen dos tipos de caché cuyo funcionamiento es analógico:
• L1 o interna (situada en el interior del propio procesador y por tanto con un acceso aún más rápido y preciso). La caché del primer nivel contiene muy pocos kilobytes (unos 32 o 64 Kb), aunque con el desarrollo de los procesadores tenemos modelos de 1mb.
• L2 o externo (ubicado entre el procesador y la memoria RAM). Los tamaños típicos de caché L2 actualmente oscilan entre 256 kc. y 2 Mb: La memoria caché es un tipo especial de memoria que tienen las computadoras. Esta memoria está ubicada entre el microprocesador y la RAM y se utiliza para almacenar datos de uso frecuente. Le permite acelerar la transferencia de datos entre el microprocesador y la memoria principal. Es de acceso aleatorio (también conocido como acceso directo) y funciona de la misma forma que la memoria principal (RAM), aunque es mucho más rápida.
• L3 Esta memoria se encuentra en algunas placas base.
composición interna
Las memorias caché constan de dos componentes diferentes: un directorio que almacena etiquetas que identifican la dirección de la memoria caché y bloques de información, todos del mismo tamaño, que almacenan la información en sí.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 222
Trabajar
A la hora de diseñar la caché se deben tener en cuenta varios factores, que afectan directamente al rendimiento de la memoria y por tanto a su objetivo de aumentar la velocidad de respuesta de la jerarquía de memoria. Estos factores son la ubicación, la eliminación, el reemplazo, las políticas de escritura y el tamaño de la memoria caché y sus bloques.
política de colocación
Especifica dónde colocar un bloque de memoria principal que va a la memoria caché. Los más utilizados son:
directo
El i-ésimo bloque de memoria principal corresponde a la ubicación en la unidad k, donde k es el número de bloques de memoria caché.
El enlace
Cualquier bloque de memoria principal puede ir a cualquier bloque de caché.
definir asociativo
La memoria caché se divide en varios conjuntos de n bloques, de modo que el bloque i-ésimo de la memoria principal corresponde a funciones de conjunto (k/n), donde k es el número de bloques de memoria caché. El bloque de memoria en cuestión se puede ubicar en cualquier parte del conjunto de caché correspondiente.
política minera
La política de extracción determina cuándo y qué bloque de memoria principal se almacenará en caché. Hay dos políticas generalizadas:
Por orden
Un bloque se almacena en caché solo cuando se ha hecho referencia a él y se ha producido un error.
con recibo anticipado
Cuando se hace referencia al i-ésimo bloque en la memoria principal, también se recupera el (i+1)-ésimo bloque.
política de reemplazo
Especifica qué bloque de caché se expulsará de la memoria caché cuando no haya espacio para bloques de entrada.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 223
Hay tres políticas muy importantes que son:
aleatorio
El bloque se reemplaza al azar.
FIFO
Se utiliza un algoritmo FIFO (primero en entrar, primero en salir) para determinar qué bloque debe abandonar la memoria caché. Este algoritmo es generalmente ineficiente.
LRU
Acrónimo en inglés de Least Recent Used (Español: Least Recent Used). Determina el bloque sin referencia más largo y especifica que este debe ser el que sale de la memoria caché. Debido a que esta política es difícil de implementar en el hardware, a menudo se utilizan versiones ligeramente simplificadas.
política escrita
Determina cuándo se actualiza la información en la memoria principal después de que se escribe en el caché. Hay dos políticas principales:
escritura instantánea
También se le llama en inglés Write Through. Cuando se escribe un bloque en la memoria caché, la información también se actualiza directamente en la memoria principal, manteniendo siempre la coherencia.
escribo perezoso
En Write Back English, cuando un bloque se escribe en el caché, se marca como sucio usando un bit especial, a menudo llamado bit sucio. Cuando el bloque se elimina del caché (a través de la política de reemplazo correspondiente), el bit sucio se verifica y, si está configurado, la información sobre el bloque al que se hace referencia se escribe en la memoria principal. También llamada política posterior al registro.
memoria virtual
La memoria virtual es un diseño de computadora que permite que el software use más memoria principal (RAM) de la que realmente tiene la computadora.
La mayoría de las computadoras tienen cuatro tipos de memoria: registros en la CPU, memoria caché (hacia y desde la CPU), memoria física (generalmente en forma de RAM, donde la CPU puede escribir y leer directamente y con bastante rapidez). disco, que es mucho más lento, pero también más grande y más barato.
Muchas aplicaciones requieren acceso a más información (código y datos) de la que se puede almacenar en la memoria física. Esto es especialmente cierto cuando el sistema operativo
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 224
permitiendo que múltiples procesos y aplicaciones se ejecuten simultáneamente. Una solución al problema de necesitar más memoria de la que está disponible es que las aplicaciones almacenen parte de su información en el disco y la trasladen a la memoria principal cuando sea necesario. Hay varias formas de hacer esto. Una posibilidad es que la propia aplicación se encargue de determinar qué información se almacena en cada sitio e importarla y exportarla. La desventaja de esto, además de la dificultad de diseñar e implementar cada programa, es que es muy probable que los intereses de memoria de dos o más programas entren en conflicto: cada programador podría realizar su diseño considerando que son solo programas. ejecutándose en el sistema. La alternativa es usar la memoria virtual, donde la combinación de hardware especial y el sistema operativo hace uso tanto de la memoria principal como de la secundaria para que parezca que la computadora tiene mucha más memoria principal (RAM) de la que realmente tiene. Este método es invisible para los procesos, por lo que otro software que se ejecuta en su computadora no notará el widget. La cantidad máxima de memoria que puede existir tiene que ver con las capacidades del procesador. Por ejemplo, en un sistema de 32 bits, el máximo es 232, que son unos 4000 megabytes (4 gigabytes). Todo esto facilita mucho el trabajo del desarrollador de aplicaciones. No importa cuánta memoria necesite la aplicación (siempre que sea inferior al límite del procesador), puede ejecutarse como si tuviera esa cantidad de memoria principal. El programador puede ignorar por completo la necesidad de transferir datos entre diferentes tipos de memoria.
Aunque la memoria virtual puede implementarse mediante el software del sistema operativo, en la práctica se utiliza casi universalmente una combinación de hardware y software.
Función básica
Cuando se usa memoria virtual, o cuando la CPU lee o escribe una dirección, el hardware dentro de la computadora traduce las direcciones de memoria generadas por software (direcciones virtuales) en:
• la dirección de memoria real (la dirección de memoria física) o • una indicación de que la dirección de memoria solicitada no se encontró en la memoria
principal (llamada excepción de memoria virtual)
En el primer caso, la referencia a la memoria se termina como si la memoria virtual no estuviera involucrada: el software accede a ella donde lo necesita y continúa funcionando normalmente. En el segundo caso, se pide al sistema operativo que maneje la situación y permita que el programa continúe ejecutándose o aborte, según corresponda.
Detalles
La traducción de direcciones virtuales a reales se implementa mediante una unidad de administración de memoria (MMU). El sistema operativo es responsable de determinar qué partes de la memoria del programa se almacenan en la memoria física. También mantiene tablas de traducción de direcciones (si se usa la paginación, la tabla se denomina tabla de paginación) que proporcionan las relaciones entre las direcciones virtuales y físicas para uso de la MMU. Finalmente, cuando ocurre una excepción de memoria virtual, el sistema operativo se encarga de asignar un área de memoria física para almacenar los datos faltantes, recuperar los datos del disco, actualizar las tablas de traducción y finalmente continuar con la ejecución del programa. falla. crash.exclude la memoria virtual de la instrucción que provocó el bloqueo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 225
En la mayoría de las computadoras, las tablas de traducción de direcciones de memoria residen en la memoria física. Esto significa que una referencia a una dirección de memoria virtual necesita una o dos referencias para encontrar la entrada en la tabla de traducción y una más para completar el acceso a esa dirección. Para acelerar el rendimiento de este sistema, la mayoría de las CPU (unidades centrales de procesamiento) incluyen una MMU en el mismo chip y mantienen una tabla de traducciones de direcciones virtuales a reales usadas recientemente llamada Translation Lookaside Buffer (TLB). El uso de este búfer significa que no se necesitan referencias de memoria adicionales, lo que ahorra tiempo durante la traducción.
En algunos procesadores, esto tiene lugar exclusivamente en el hardware. En otros, se necesita la ayuda del sistema operativo: ocurre una excepción cuando el sistema operativo reemplaza una de las entradas de TLB con una entrada de la tabla de traducción y la instrucción a la que se hace referencia en la memoria original se ejecuta nuevamente.
El hardware que admite memoria virtual generalmente también admite protección de memoria. La MMU puede cambiar su estado operativo según el tipo de referencia a la memoria (lectura, escritura o ejecución), así como el estado en el que se encontraba la CPU en el momento en que se hizo la referencia a la memoria. Esto permite que el sistema operativo proteja su propio código y datos (como las tablas de traducción utilizadas para la memoria virtual) para que no sean manipulados por una aplicación y para que las aplicaciones no causen problemas entre sí.
Paginación y memoria virtual
La memoria virtual generalmente (pero no necesariamente) se implementa mediante paginación. En la paginación, los bits menos significativos de la dirección de la memoria virtual se retienen y se usan directamente como los bits menos significativos de la dirección de la memoria física. Los bits más significativos se usan como clave en una o más tablas de traducción de direcciones (llamadas tablas de búsqueda) para encontrar el resto de la dirección física que se busca.
Paginación
En los sistemas operativos de las computadoras, los sistemas de asignación de memoria dividen los programas en pequeños fragmentos o páginas. De manera similar, la memoria se divide en partes del mismo tamaño que las páginas llamadas marcos de página. De esta forma, la cantidad de memoria que desperdicia un proceso es el final de su última página, minimizando la fragmentación interna y evitando la fragmentación externa.
En un momento dado, la memoria está ocupada por páginas de diferentes procesos, mientras que algunos marcos están disponibles para su uso. El sistema operativo mantiene una lista de estos últimos marcos y una tabla para cada proceso que muestra en qué marco se encuentra cada página del proceso. Por lo tanto, las páginas de un proceso pueden no ser contiguas en la memoria y pueden intercalarse con páginas de otros procesos.
La tabla de páginas de un proceso contiene la ubicación del marco que contiene cada una de sus páginas. Las direcciones lógicas ahora se forman como un número de página y un desplazamiento dentro de esa página. El número de página se utiliza como índice en la tabla de páginas y cuando se obtiene la dirección de marco de memoria correcta,
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 226
offset para componer la dirección real. Este proceso se ejecuta en el hardware de la computadora.
De esa forma, cuando un proceso se carga en la memoria, todas sus páginas se cargan en marcos libres y se llena su tabla de páginas.
Veamos un ejemplo:
Número de trama del programa.# página Dirección física
0 Horario A.0 1000:0000
1 Programa A.1 1000:1000
2 Programa A.2 1000:2000
3 Horario D.0 1000:3000
4 Programa D.1 1000:4000
5 Creo C.0 1000:5000
6 Cuenta C.1 1000:6000
7 Programa D.2 1000:7000
La tabla de la página muestra una posible configuración de memoria en un momento dado con páginas de 4Kb. La forma en que se llegó a esta situación pudo haber sido la siguiente:
Hay cuatro procedimientos, denominados A, B, C y D, que ocupan 3, 2, 2 y 3 páginas respectivamente.
1. El programa A se carga en la memoria (asignado a los cuadros 0, 1 y 2) 2. El programa B se carga en la memoria (asignado a los cuadros 3 y 4) 3. El programa C se carga en la memoria (asignado a los cuadros) 5 y 6 ) 4. El programa B sale y libera sus páginas. 5. Se carga en memoria el programa D (se le asignan los frames 3 y 4 usados por el proceso B y el frame 7 que quedó libre)
De esta forma, las tablas simplificadas para cada proceso quedan así:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 227
Procedimientos A
página de tabla
0 1000:0000
1 1000:1000
2 1000:2000
Procedimiento B
página de tabla
--
--
Procedimientos C
página de tabla
0 1000:5000
1 1000:6000
proceso
página de tabla
0 1000:3000
1 1000:4000
2 1000:7000
Consideremos ahora lo que sucede cuando un programa quiere acceder a su memoria. Si el programa A contiene una referencia de memoria en la dirección 20FE, se ejecutará el siguiente procedimiento. 20FE es 0010000011111110 en notación binaria (en un sistema de 16 bits) y el ejemplo utiliza páginas de tamaño 4 Kb. Cuando se realiza la solicitud de dirección de memoria 20FE, el controlador de memoria se ve así:
0010000011111110 = 20FE {_}|_______________| | | | v v Ubicación de memoria en la página (00FE) Número de página (0010 = 2)
Cuando se utilizan páginas de 4096 bytes, todas las posiciones en una página se pueden representar mediante 12 bits, binarios (212=4096), dejando 4 bits para representar el número de página. Si las páginas fueran la mitad de grandes (2048), podríamos tener 5 bits para el número de página, lo que significa que cuanto menor sea el tamaño de la página, más tablas de páginas podríamos tener.
Cuando se realiza una solicitud de acceso a la memoria, la MMU busca en la tabla de páginas del proceso que realizó la solicitud la relación de la memoria física. En nuestro ejemplo, la página número 2 en el proceso A corresponde al marco número 2 en la memoria física, con una dirección real de 1000:2000, por lo que la MMU devuelve la dirección del marco en la memoria física, con el desplazamiento a esa página: 1000: 20FE.
Buscar memoria virtual
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 228
La única desventaja del sistema de paginación puro es que todas las páginas de un proceso deben estar en la memoria para que se ejecute. Esto significa que si los programas son de un tamaño importante, muchos no se pueden cargar al mismo tiempo, lo que reduce el grado de multiprogramabilidad del sistema. Para evitar esto y aprovechar el principio de proximidad de referencia, donde se espera que un programa opere con un conjunto denso de referencias de memoria (es decir, con un conjunto residente más pequeño que su número total de páginas), se permitirán ciertas páginas de el proceso que se almacenará en un espacio de intercambio (en la memoria secundaria) mientras no se necesiten.
Cuando la paginación se usa junto con la memoria virtual, el sistema operativo también realiza un seguimiento de qué páginas están en la memoria principal y cuáles no están usando la tabla de paginación. Si una página recuperada se marca como no disponible (quizás porque no existe en la memoria física pero existe en el área de intercambio), cuando la CPU intenta hacer referencia a una dirección de memoria para esa página, la MMU responde lanzando una excepción (a menudo llamada fallo de página). Si la página está en el área de intercambio, va a una rutina que llama a una función llamada intercambio de página para traer la página requerida a la memoria principal. La operación implica varios pasos. Primero, se selecciona una página en la memoria, por ejemplo, una que no se haya utilizado recientemente (consulte los algoritmos de reemplazo de página para obtener más detalles). Si la página ha cambiado, se escribe para cambiar de posición. El siguiente paso en el proceso es leer la información en la página de espacio de intercambio requerida). Cuando esto sucede, las tablas de traducción de direcciones virtuales a reales se actualizan para reflejar el contenido de la memoria física. El salto de página finaliza y el programa que usó la dirección que provocó la excepción se ejecuta nuevamente desde el punto donde ocurrió la excepción y continúa como si nada hubiera pasado. También es posible que una dirección virtual se marque como no disponible porque no ha sido asignada previamente. En estos casos, se asigna una página de memoria y se llena con ceros, la tabla de paginación se modifica para reflejar los cambios y el programa se reinicia como en el otro caso.
búfer de datos
Un búfer en una computadora es un espacio de memoria en el que se almacenan datos para evitar que el recurso que lo requiere, ya sea hardware o software, se quede sin datos en algún momento.
Algunos ejemplos de aplicaciones de búfer son:
• Transmita audio o video a través de Internet. Se almacena en caché, por lo que hay menos posibilidades de que la reproducción se caiga cuando se reduce o acelera el ancho de banda.
• Un búfer adecuado no permite pausas desagradables al saltar entre dos canciones.
• Las grabadoras de CD o DVD disponen de un búfer para que la grabación no se detenga. Hoy en día existen sistemas para continuar la grabación, pero antes se creía que el CD no se grababa bien y muchas veces no servía para nada.
El concepto de búfer es similar al de caché. Pero en caso de almacenamiento en caché, siempre se utilizarán los datos ingresados. En el caché, sin embargo, no hay seguridad, sino una mayor posibilidad de uso.
Para explicar el concepto de una computadora a personas no técnicas, se puede usar esta metáfora: un búfer es como tener dinero en el banco (búfer), un trabajo (entrada) y costos fijos (salida). Si tiene un trabajo estable, siempre que tenga algunos ahorros, puede mantener sus gastos estables y agregar dinero cuando pueda mientras trabaja. Sí
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 229
los ahorros son pequeños, como no tienes trabajo no puedes afrontar los gastos fijos. Del mismo modo, si está escuchando música en Internet y su programa de audio usa un búfer pequeño, notará cortes en el audio tan pronto como haya una interrupción en la descarga.
Los búferes se pueden usar en cualquier sistema digital, no solo en sistemas informáticos, por ejemplo, se usan en reproductores de música y video.
Memoria intermedia del microprocesador
Gabinete:
Es el chasis que contiene la CPU, donde se encuentran la placa base, el microprocesador, la memoria, etc. Hay muchos modelos, pero no han cambiado mucho desde su origen. Básicamente se trata de una caja metálica que contiene los componentes de hardware, con ranuras y slots universales que permiten alojar todos los modelos de placas base, discos duros y lectores.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 230
Los estuches o CASEs actuales están fabricados en aluminio pintado, lo que los hace ligeros pero fáciles de dañar, con carátulas de plástico para acceder a los lectores (CD-ROM, USB frontal, etc.) También en esta zona se encuentran las luces, el Power y el Reset botones.
La parte trasera tiene ranuras para salidas de placa base y ranuras para tarjetas instaladas en ranuras de expansión. A diferencia de los anteriores, los modernos están mejorados en diseño y refrigeración, algo muy importante en los ordenadores actuales.
Cuando inserte la placa base, debemos quitar las partes metálicas que cubren los puntos de inserción.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 231
1- Tapas que tapan las aberturas de la placa base. 2- Orificios roscados para fijación de la placa. 3- Conectores para otros componentes (audio). 4- Slots para tarjetas (video, audio, modem, etc.)
Es importante distinguir entre los tornillos utilizados, ya que tienen un paso específico.
A- Tornillos gruesos cortos y largos para cerrar la carcasa y sujetar los discos duros. B- Tornillos de paso grueso con cabeza corta para placas de montaje (Video, etc.). C- Tornillos finos para fijar lectores, discos y placas base.
Para montar la placa base utilizamos tornillos roscados, abrazaderas metálicas y soportes de plástico:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 232
Antes de instalar la placa base, seleccione los soportes adecuados y colóquelos tanto en el chasis como en la placa base.
Recordemos que cuando metemos la placa base en la carcasa, primero pondremos el microprocesador, el cooler y las memorias RAM, esto evitará falsos contactos o posibles daños al presionar el ventilador de la placa base, en caso contrario podemos seguir en la misma posición tradicional de placa base y luego con cuidado el resto de los componentes.
Disco duro:
El dispositivo encargado de almacenar información de manera permanente en una computadora se denomina disco duro (en inglés hard disk, muchas veces abreviado como HD o HDD).
Los discos duros generalmente usan un sistema de grabación magnético analógico. En este tipo de disco encontramos en el interior de la carcasa una serie de placas metálicas apiladas que giran a gran velocidad. En estas placas se ubican los cabezales encargados de leer o escribir los pulsos magnéticos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 233
Carcasa: Protege la mecánica del motor de sustancias externas como polvo, humedad, temperatura, etc. Cabezal de lectura/escritura: Es una de las partes más sensibles del disco y una de sus partes móviles. Consta de varios componentes: Bobina de voz: Bobinas (1) Preamplificador (2) Conjunto de cabeza flexora (3) Cabezas (4) E-block (5) La cabeza de lectura/escritura funciona cambiando su posición en la superficie del recipiente para lea/escriba la información que necesita. El proceso es el siguiente. Una bobina de cobre, cubierta por un imán (bobina de voz), mueve el bloque E en una dirección u otra, dependiendo de la corriente que le apliques. Al final del Flextor, que va unido al E-block, se encuentran unos elementos de material semiconductor (cabezas), que son las unidades sensibles a los campos magnéticos de las placas donde reside la información. Para aumentar la señal eléctrica que reciben los cabezales, se coloca un preamplificador en el bloque E. Placas (6): Son soportes metálicos de forma circular y plana, formados por tres capas: Un soporte, generalmente de aluminio o vidrio . Una superficie donde la información se almacena electromagnéticamente. La membrana delgada (7). Una última capa fina y aceitosa para proteger la capa electromagnética. Ambos lados de las placas se pueden utilizar para almacenar información.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 234
Ejes (8): Los ejes son las partes sobre las que giran algunos de los elementos móviles del disco duro. Un eje permite la rotación de los platos y el otro el movimiento de la cabeza de lectura/escritura. Marco (9): Es la estructura rígida en la que se ubican las distintas partes del disco duro, pero que no interfiere en ningún momento con el almacenamiento de la información. Electrónica (10): Conjunto de circuitos integrados montados en una placa de circuito impreso o PCB cuya misión es comunicarse con el sistema informático y controlar todos los componentes del disco que intervienen en la lectura y escritura de información. Unidad de disco duro (11): conjunto de elementos destinados a producir un movimiento de rotación de las placas a una velocidad constante. . Bus (12): Es la ranura a través de la cual se transfieren los datos entre el disco duro y la computadora. Fuente de alimentación (13): Es el enchufe al que se conecta el cable de alimentación, que suministra al aparato la corriente necesaria para su funcionamiento.
Anillo de interfaz:
SCSI: Aunque originalmente competía a nivel de usuario con las unidades IDE, hoy en día solo se pueden encontrar en algunos servidores. Para usarlos, es necesario instalar una tarjeta controladora. Le permite conectar hasta quince periféricos en cadena. La última versión del estándar, Ultra4 SCSI, supera los 320 MBps.
IDE/EIDE: Este es el nombre de todos los discos duros que cumplen con la especificación ATA. Se caracterizan por tener la mayoría de las funciones de control en el dispositivo en lugar de un controlador externo. Las computadoras suelen tener dos canales IDE con hasta dos unidades en cada uno. Utilizan cables de cuatro hilos y alcanzan hasta 33 MBps.
ATA 66, 100, 133: Los sucesivos desarrollos de la interfaz IDE para cumplir con los nuevos estándares ATA permitieron alcanzar velocidades de 66, 100 e incluso 133 MBps. Para soportar este flujo de datos, deben usar un cable de ochenta conductores, si se usa otro, el rendimiento es de un máximo de 33 MBps. Son los discos duros más utilizados en la actualidad.
Serial ATA: Es la interfaz que reemplazará a los discos IDE a corto plazo. Entre las ventajas se encuentran una tasa de transferencia de datos más alta (150 vs. 133 MBps) y un cable más largo (longitud de hasta un metro en lugar de 40 cm.) y más delgado (solo siete cables en lugar de ochenta) que proporciona más flexibilidad en la instalación física. de los discos y una mejor ventilación en el interior del armario.
Existen diferentes estándares sobre cómo un disco duro se comunica con una computadora. Los más utilizados son IDE/ATA, SCSI y SATA (de aparición más reciente).
Tal como se envía de fábrica, el disco duro no puede ser utilizado por un sistema operativo. Primero debemos definir una o más particiones en él y luego debemos darles un formato que nuestro sistema pueda entender.
También existen otros tipos de unidades denominadas de estado sólido que utilizan ciertos tipos de memoria fabricadas con semiconductores para almacenar información. El uso de esta clase de unidades generalmente se limita a las supercomputadoras debido a su alto costo. Después de este,
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 235
el caché de seguimiento es una memoria de estado sólido, como RAM, dentro de un disco duro de estado sólido.
estructura física
Dentro de un disco duro hay muchos platos (entre 2 y 4), que son discos concéntricos (de aluminio o vidrio) que giran todos al mismo tiempo. El cabezal de lectura y escritura es un conjunto de brazos que se mueven hacia adentro o hacia afuera según sea necesario, todo al mismo tiempo. Al final de estos brazos se encuentran las cabezas de lectura/escritura que, gracias al movimiento de las cabezas, pueden leer tanto la zona interna como la externa del disco.
Cada plato tiene dos lados y se requiere un cabezal de lectura/escritura para cada plato (no un cabezal por plato, sino uno por cara). Si observa el diagrama del sector de la culata (abajo), a simple vista puede ver 4 brazos, uno para cada placa. De hecho, cada uno de los brazos es doble y contiene 2 cabezales: uno para leer la cara superior de la placa y otro para leer la cara inferior. Así que hay 8 cabezas para leer 4 platos.
Los cabezales de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta 3 nanómetros). Si alguien lo tocara, dañaría mucho la placa debido a la velocidad a la que giran las placas (un 7200 rpm se mueve a 120 km/h de canto).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 236
Destinatario
Cilindro, culata y sector
Cilindros, cabezas y sectores
Un disco tiene sectores numerados 0, 1, 2,... Esto se llama una dirección LBA.
En la antigüedad, antes de la aparición de las unidades IDE, las unidades tenían una geometría descrita por tres constantes C, H, S: el número de cilindros, el número de cabezas, el número de sectores por pista. La dirección de un sector venía dada por tres números: c, h, s: el número de cilindro (entre 0 y C-1), el número principal (entre 0 y H-1) y el número de sector dentro de la pista (entre 1 y S), donde c y h, por alguna razón misteriosa, cuentan desde 0, pero s cuenta desde 1. Esto se denomina dirección CHS.
Ningún dispositivo fabricado hace menos de diez años tiene geometría, pero la interfaz INT13 BIOS todavía usa la antigua dirección de sector 3D (con elegantes números C, H, S que no están relacionados con ninguna realidad física).
La correspondencia entre la numeración lineal y esta notación 3D es la siguiente: para un disco con cilindros C, cabezales H y sectores/pista S, la posición (c,h,s) en notación 3D o CHS es la misma que la posición c * H* S + h*S + (s-1) en notación lineal o LBA.
Por lo tanto, para acceder a un disco que no sea SCSI muy antiguo, necesitamos conocer su geometría, p. los valores de C, H y S;
tamaño del dominio
En texto real, un campo tiene 512 octetos. Este es casi siempre el caso, pero, por ejemplo, algunos discos MO utilizan un tamaño de sector de 2048 bytes y todas las capacidades a continuación deben multiplicarse por cuatro. (Al usar fdisk en dichos discos, asegúrese de tener la versión 2.9i o posterior y especifique la opción "-b 2048").
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 237
tamaño del disco
Un disco con cilindros C, cabezales H y sectores S por Las pistas tienen sectores C*H*S por todas partes y pueden almacenar C*H*S*512 bytes. Por ejemplo, si la etiqueta del disco dice C/H/S=4092/16/63, entonces el disco tiene 4092*16*63=4124736 sectores y puede contener 4124736*512=2111864832 bytes (2,11 GB). Existe una convención de la industria que otorga C/H/S=16383/16/63 para discos de más de 8,4 GB, y el tamaño del disco ya no se puede leer a partir de los valores de C/H/. S revelado por el disco.
1024 carretes y límites de 8,5 GB
La antigua interfaz BIOS INT13 para E/S de disco usa 24 bits para direccionar un sector: 10 bits para el cilindro, 8 bits para la cabeza y 6 bits para el número de sector en la pista (contando desde 1). Esto significa que esta interfaz no puede abordar más de 1024*256*63 sectores, lo que equivale a 8,5 GB (con sectores de 512 bytes). Y si la geometría (imaginaria) especificada para el disco tiene menos de 1024 cilindros o 256 cabezas o 63 sectores por pista, entonces este límite será menor.
(Más específicamente: con INT 13, AH selecciona la función a ejecutar, CH son los 8 bits bajos del número de cilindro, CL tiene en los bits 7-6 los dos bits altos del número de cilindro y en los bits 5-0 es el número de dominio, DH es el número maestro y DL es el número de dispositivo (80h o 81h. Esto explica parte de la configuración de la tabla de particiones).
Esta situación se corrigió cuando se introdujeron las llamadas funciones extendidas INT13. Un BIOS moderno no tiene problemas para acceder a discos grandes.
(Más específicamente: DS:SI informa un paquete de dirección de disco de 16 bytes que contiene un número absoluto de bloques de 8 bytes).
Linux no usa un BIOS, por lo que (e) no tiene este problema.
Sin embargo, estos elementos geométricos juegan un papel en la interpretación de las tablas de partición. entonces, si Linux comparte un disco con, p. DOS, necesita saber qué geometría cree DOS que tiene el disco. También juega un papel en el tiempo de arranque, donde el BIOS tiene que cargar un arranque y el arranque tiene que cargar el sistema operativo.
El límite de 137 GB
El antiguo estándar ATA describe cómo abordar un sector en un disco IDE usando 28 bits (8 bits para el sector, 4 para la cabeza, 16 para el cilindro). Esto significa que un disco IDE puede tener un máximo de 2^28 sectores direccionables. Con sectores de 512 bytes, eso es 2^37 bytes, es decir, 137,4 GB.
El estándar ATA-6 incluye una especificación sobre cómo manejar más allá de este límite de sector de 2^28. El nuevo estándar permite direcciones de 2^48 dominios. Es compatible con los kernels de Linux más nuevos que incorporan el parche IDE de Andre Hedrick, por ejemplo, 2.4.18-pre7-ac3 y 2.5.3.
Maxtor ha estado vendiendo unidades IDE de 160 GB desde el otoño de 2001. Un núcleo más antiguo tratará las unidades como unidades de 137,4 GB.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 238
Hay varios términos que se refieren a espacios de disco:
• Plato: Cada uno de los discos que se encuentran dentro del disco duro. • Anverso: Cada uno de los dos lados de un plato. • Principal: Número principal. es equivalente a dar el número de cara ya que hay uno
cabeza por cara • Trazos: Un círculo en una cara. La pista 0 está en el borde exterior. • Cilindro. conjunto de múltiples pistas; son todos los circulos que estan alineados
verticalmente (uno a cada lado). • Sector: Un sector circular, que incluye discos de muchas piezas y caras.
El primer sistema de direccionamiento utilizado fue CHS (cylinder-head-sector), ya que todos los datos del disco se pueden ubicar mediante estos tres valores. Posteriormente, se creó otro sistema más sencillo: LBA (direccionamiento de bloques lógicos), que consiste en dividir todo el disco en sectores y asignar a cada uno de ellos un número único. este es el sistema actualmente en uso.
estructura lógica
Dentro del disco se encuentran:
• Registro de arranque maestro (en el sector de arranque), que contiene la tabla de particiones
• las particiones necesarias para montar los sistemas de archivos
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 239
operación mecánica
Partes de un disco duro
Un disco duro normalmente tiene:
• platos donde se escriben los datos • cabezal de lectura/escritura • motor que gira los platos • electroimán que mueve el cabezal • circuito de control electrónico que incluye: interfaz de computadora, memoria caché • bolsa desecante (gel de sílice) para evitar la humedad • caja para protección contra impurezas (pero no en el vacío) • tornillos, normalmente especiales
Historia
Antiguo disco duro IBM (modelo 62PC, "Piccolo"), 64,5 MB, fabricado en 1979
El primer disco duro fue el IBM 350, inventado por Reynold Johnson y lanzado en 1955 con la computadora IBM 305. Este disco tenía 50 platos de 24 pulgadas. cada uno con una capacidad total de 5 millones de caracteres. Se utilizó un único cabezal para acceder a todas las crucetas, por lo que el tiempo medio de acceso fue muy lento.
Fondo Ludovico Rutten
- Curso de ensamble de computadoras y redes 240
Características de un disco duro
Las características a considerar en un disco duro son:
Tiempo Promedio de Acceso Tiempo promedio para ubicar la aguja en el cilindro deseado. por lo general, se trata de 1/3 del tiempo que se tarda en llegar del centro al exterior o viceversa.
Latencia El tiempo que tarda el disco en girar media revolución, que es igual al tiempo medio de acceso. Cuando la aguja del disco duro se coloca en el cilindro, el disco debe girar hasta que los datos se encuentran debajo de la cabeza. El tiempo que esto sucede es, en promedio, el tiempo que tarda el disco en girar. Por lo tanto, el retraso es diferente, pero aproximadamente proporcional a la velocidad de rotación.
Tiempo máximo de acceso Tiempo necesario para ir del centro al exterior o viceversa.
Tiempo de pista a pista Tiempo de transición de la pista actual a la pista siguiente.
Velocidad de transferencia La velocidad a la que puede transferir información a su computadora. Puede ser de velocidad continua o máxima.
Track cache Es una memoria de estado sólido, un tipo de RAM, dentro del disco duro de estado sólido. Los discos duros de estado sólido utilizan ciertos tipos de memoria fabricados con semiconductores para almacenar información. El uso de esta clase de unidades generalmente se limita a las supercomputadoras debido a su alto costo.
Interfaz La forma en que un disco duro se comunica con la computadora. Puede ser IDE, SCSI, USB o Firewire.
Función LBA:
LBA significa Direccionamiento de bloques lógicos. Es un método utilizado para determinar la ubicación de bloques de datos almacenados en sistemas de almacenamiento informático (generalmente almacenamiento secundario). El término LBA también puede referirse a la dirección del bloque al que está asociado. Los bloques lógicos en las computadoras modernas suelen tener 512 o 1024 bytes cada uno.
Fabricantes MAXTOR: Es uno de los fabricantes de discos duros más antiguos y tras dificultades económicas en los años 90 fue adquirido por la multinacional Hyundai en 1996. Hoy es el mayor fabricante del mundo tras comprar Quantum en 2001. Solo fabrica discos IDE 3 .5".
SEAGATE: Tradicionalmente el fabricante de discos duros número uno, se convirtió en el número dos después de la fusión entre Maxtor y Quantum. Uno de sus productos estrella, el Barracuda 180, se ha consolidado como uno de los mejores discos duros para usuarios finales por su rapidez y bajo coste. También es proveedor de muchos ensambladores para los que generalmente fabrica cabezales de lectura/escritura. En 1995 se fusionaron con Conner. Crea unidades IDE y SCSI.
IBM: fabrica una amplia gama de componentes, desde microprocesadores, chips personalizados hasta unidades de disco, cabezales y, por supuesto, discos duros. Aunque Seagate afirma que tiene
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 241
desarrolló el primer disco duro de computadora, fue IBM quien inventó el disco duro hace unos 40 años y ha realizado grandes mejoras desde entonces. IBM Storage es uno de los mayores proveedores de componentes de discos duros. Vendió su división de almacenes a Hitachi. Hizo discos IDE y SCSI... Tenía un disco portátil.
WESTERN DIGITAL: Además de los discos duros, fabrican una amplia gama de productos electrónicos, comenzando como fabricante de placas controladoras y luego fabricando varias tarjetas gráficas, pero hace unos años vendieron esa división a Phillips. Durante unos años cambiaron su política interna de desarrollar sus propios discos duros a fabricar discos con componentes de IBM, pero aun así volvieron a diseñar sus propios productos. Actualmente fabrican unidades IDE de 3,5" y 2,5" y se atrevieron a fabricar la línea SCSI durante años, que abandonaron rápidamente.
Samsung: Son famosos por producir pantallas y RAM. Hace que los discos duros sean rápidos, baratos y fiables. Están en constante expansión, la empresa es grande y financieramente sólida, por lo que seguirá prosperando. Este fabricante centra sus productos en la serie más vendida, es decir, 3,5".
QUANTUM: fue el fabricante de discos duros de terceros durante muchos años con productos de gran prestigio hasta que Maxtor lo compró en 2001.
HITACHI: Este fabricante japonés compró recientemente la división de discos duros de IBM, que anteriormente se dedicaba únicamente a la producción de discos para computadoras portátiles.
TOSHIBA: Al igual que Hitachi antes, solo fabrican unidades portátiles y también poseen esta patente.
ALPS ELECTRIC DRIVE: Actualmente fabrica solo teclados y componentes de computadora.
CONNER Peripherals: Conner Peripherals: Fundada cuando Finis Conner dejó Seagate en la década de 1980. Rápidamente ganaron una buena reputación y fueron un actor importante en este mercado hasta que Seagate los adquirió en 1995.
FUJITSU: La compañía de computadoras más grande de Japón había estado fabricando discos duros durante años, pero su participación de mercado en los años 90 era solo del 8%, por lo que a finales de 2001 anunciaron que saldrían del mercado vendiendo su fábrica a WD. Este fabricante cubre las tres líneas de productos (IDE, SCSI y Portable).
JTS: Este fabricante fue fundado en los EE. UU. en 1994 por Conner y algunos empleados de IBM y fabricaban sus productos en la India. Cerraron en 1998.
KALOK: Fue el precursor de JTS.
MICROPOLIS: era un pequeño fabricante en los EE. UU., pero establecido desde hace mucho tiempo en el campo de la fabricación de discos duros. Cerraron en noviembre de 1997.
MINISCRIBE: Fueron el mayor fabricante de discos duros a finales de los 80. Quebró y fue comprada por Maxtor.
NEC: En 1998 firmó un acuerdo con IBM para comenzar a fabricar unidades para este último.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 242
pueblo de disco
En el mundo de la tecnología informática, la partición del disco duro es la creación de divisiones lógicas en un disco duro que permiten el uso del formato lógico de un sistema operativo en particular.
El particionamiento es una técnica simple que puede considerarse un precursor de la gestión de volúmenes lógicos (LVM).
Se puede ejecutar o instalar más de un sistema operativo en una sola computadora sin separación (usando un LiveCD, unidades flash USB u otro disco duro con medios de arranque, por ejemplo, un disquete, que salta al otro disco duro).
Un volumen se formatea utilizando un sistema de archivos como FAT o ReiserFS y se le asigna una letra de unidad (en Windows) o un nombre como hda1 en Linux. En los sistemas Windows, puede ver el contenido de un volumen haciendo clic en su icono en el Explorador de Windows o Mi PC. En Linux y similares a Unix, el comando 'df se usa para mostrar la lista de particiones. Un solo disco duro puede tener varios volúmenes, que también pueden incluir varios discos.
Partición de disco en una PC IBM (Windows)
Una partición en el sistema Windows (bajo la arquitectura de PC de IBM) es una parte de un disco duro que puede tener un sistema de archivos separado. Hay tres tipos principales de particiones:
1. Partición primaria 2. Partición extendida que contiene una o más particiones lógicas 3. Partición lógica
Según el sistema de Windows, el disco duro puede contener solo 4 particiones primarias. Las particiones extendidas se consideran particiones primarias. Es decir, puede tener 4 particiones primarias, o 3 primarias y 1 extendida, 2 primarias y 1 extendida, etc. el disco duro dedicado a las particiones extendidas, que en última instancia son particiones lógicas, pero dentro del área de partición extendida. Tenga en cuenta que un disco duro tiene 4 particiones primarias y solo una de ellas actúa como partición extendida y dentro de la partición extendida se crean las particiones lógicas. En otras palabras, un disco duro puede tener 3 particiones primarias, su partición extendida y 4 particiones lógicas (que forman parte de la extendida). Y luego podríamos tener 7 sistemas de archivos diferentes (ya sea iguales o duplicados) ya que la partición extendida no cuenta lo mismo, sino sus particiones lógicas.
Situación actual
Las descripciones de este artículo no son de ninguna manera el único diseño posible para implementar particiones de disco duro en una computadora IBM. Sin embargo, este es el único esquema de partición utilizado por los sistemas operativos de Microsoft y se usa ampliamente en la arquitectura informática de IBM.
Lo dicho anteriormente no significa que no haya posibles desviaciones de este arreglo. Hay muchos productos de software que, al cambiar ciertas partes de la secuencia de arranque, pueden extender este esquema de particionamiento limitado. Sin embargo, antes de usar cualquier tipo de software, es una buena idea estudiar cómo funciona e interactúa con los sistemas operativos en ejecución.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 243
Para la próxima aparición de la arquitectura IA-64 (la extensión de 64 bits de la línea x86), Intel ha preparado un conjunto de especificaciones conocidas como Extensible Firmware Interface (EFI). Estos incluyen, entre otros, un formato de tabla de particiones más avanzado (llamado "Tabla de particiones GUID" o GPT), que se selecciona para su discusión en este artículo.
compartimentos primarios
En los sistemas Windows para computadoras IBM, las particiones se admiten tradicionalmente mediante una estructura denominada tabla de particiones, que se escribe y apunta hacia el final del registro de inicio principal. La matriz, que no puede contener más de 4 entradas de partición (también denominadas descriptores de partición), define para cada una su inicio, fin y tamaño en los distintos modos de direccionamiento, además de un único número denominado tipo de partición y un indicador que indica si una partición está activa. Normalmente, solo una partición puede estar activa a la vez. El cursor se usa en el arranque: después de que el BIOS carga el registro de arranque maestro en la memoria y lo ejecuta, DOS verifica la tabla de particiones MBR al final y encuentra la partición activa. Luego carga el sector de arranque de la partición en la memoria y lo ejecuta. A diferencia del registro de inicio maestro, que generalmente es independiente del sistema operativo, el sector de inicio se instala con el sistema operativo, por lo que sabe exactamente cómo cargar el sistema ubicado en esa unidad.
Tenga en cuenta que aunque la presencia de un puntero activo es estándar, normalmente no lo utiliza ningún programa que no sea el cargador de arranque y, por lo tanto, el cargador de arranque no está obligado a cargar la partición marcada como activa. Algunos cargadores de arranque lo usan para arrancar sistemas operativos desde particiones inactivas. Por ejemplo, los cargadores de arranque LILO, GRUB (muy común en Linux) y XOSL no buscan en toda la tabla de particiones, sino que simplemente cargan otra etapa (que puede estar contenida en el cilindro 0 restante o en Después de cargar la segunda etapa, se puede usar para cargar el sector de arranque desde cualquiera de las particiones del disco (permitiendo así que el usuario arranque desde allí) o, si el gestor de arranque sabe cómo hacerlo, ubique el kernel del sistema operativo en una de las particiones y cárguelo (para propósitos de recuperación puede permitir que el usuario para especificar opciones de kernel adicionales).
particiones extendidas y lógicas
DOS de todas las versiones solo puede leer una partición FAT primaria en el disco duro. Esto, junto con el uso degradado del disco y el rendimiento de FAT como tamaño de disco, llevó a Microsoft a inventar un esquema de partición de disco mejorado. El esquema era relativamente simple: una de las entradas más importantes en la tabla de particiones se llamaba partición extendida y se le asignaba un número de tipo de partición especial (0x05). Solo el campo de inicio de partición en él se usó para almacenar la ubicación del primer descriptor de partición extendido. que a su vez tenía un campo similar que almacenaba la ubicación del siguiente, creando efectivamente una lista unificada de descriptores de partición. Los otros campos en una partición extendida no están definidos y debido a que estos conceptos no asignan espacio en la misma partición, no se puede usar para almacenar datos. Las particiones en la parte superior de la lista asociadas con una partición extendida se denominan particiones lógicas. Estos tienen espacio asignado y se pueden utilizar para almacenar datos. Los sistemas operativos más antiguos, que desconocían las particiones extendidas, simplemente ignoraban las particiones con un número de tipo 0x05 y, por lo tanto, se conservaba la contabilidad. En teoría, este esquema puede reemplazar al anterior, ya que todas las particiones de un disco duro se pueden colocar en una sola partición extendida. sin embargo, por alguna razón, Microsoft no actualizó su sistema operativo DOS (o cualquier otra cosa aún) para arrancar desde una partición extendida y debido a la necesidad de particiones.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 244
los clasificados se mantuvieron. Además, solo permitirían una partición FAT primaria por unidad, lo que significa que todas las demás particiones FAT primarias deben temer sus números de tipo de partición anteriores, saltar al arranque de DOS, para que pueda continuar. Esta técnica, utilizada por muchos cargadores de arranque populares, se conoció como ocultación de partición.
La segmentación se realiza por varias razones:
• Algunos sistemas de archivos (por ejemplo, versiones anteriores de los sistemas de archivos FAT de Microsoft) tienen límites de tamaño más pequeños que una unidad de disco moderna.
• Si una partición se daña, puede intentar guardar los datos en otra partición. Esto es similar a un RAID, excepto por la unidad en sí.
• En algunos sistemas operativos, por ejemplo Linux, los archivos de intercambio deben ser sus propias particiones.
• A menudo, dos sistemas operativos no pueden coexistir en la misma partición o usar diferentes formatos de disco "nativos". La unidad se divide en diferentes unidades lógicas para diferentes sistemas operativos.
A lo largo de los años han aparecido muchos sistemas de partición para casi todas las arquitecturas informáticas existentes. Muchos de ellos son relativamente transparentes y permiten una fácil manipulación de las particiones del disco. Sin embargo, algunos están desactualizados.
Este sistema se considera obsoleto porque solo admite discos duros de más de 8 gigabytes. Dado que la arquitectura informática de IBM es extremadamente común, es probable que las tablas de particiones se queden aquí por un tiempo. Sin embargo, un proyecto reciente de Intel y Microsoft denominado Iniciativa de firmware extensible (EFI) tiene un componente denominado tabla de particiones GUID.
tabla de particiones
La tabla de particiones se encuentra en el MBR desde el byte 446 en el sector de arranque y ocupa 64 bytes, contiene 4 particiones (16 bytes cada una), llamadas particiones primarias, cada entrada ocupa 16 bytes, en esta entrada se almacena todo. partición, si es de arranque, si no, el formato, tamaño y sector de arranque.
Organización de la tabla de particiones
512 bytes
Primer sector del disco duro físico (Pista cero) 446 Byte
código de dominio de arranque
64 bytes
16 bytes
Primera partición 1 byte
Boot Flag Si el bit 7 está configurado para una partición de arranque, los otros 6 bits deben ser cero.
3 bytes
comienzo del capitulo
Tipo de partición 1 byte
CHS final en 3 bytes
4 bytes
LBA
Tamaño 4 bytes en sectores
16 bytes
Indicador de arranque de la segunda partición 1 si el bit 7 está configurado como una partición de arranque, los otros 6 bits
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 245
Los bytes deben contener ceros.
3 bytes
comienzo del capitulo
Tipo de partición 1 byte
3 bytes
CHS final
4 bytes
LBA
Tamaño 4 bytes en sectores
16 bytes
Tercera partición 1 byte
Boot Flag Si el bit 7 está configurado para una partición de arranque, los otros 6 bits deben ser cero.
CHS inicial 3 bytes
1 byte
tipo de partición
CHS final en 3 bytes
4 bytes
LBA
Tamaño 4 bytes en sectores
16 bytes
cuarto apartamento
1 byte
Boot Flag Si el bit 7 está configurado para una partición de arranque, los otros 6 bits deben ser cero.
CHS inicial 3 bytes
1 byte
tipo de partición
3 bytes
CHS final
LBA 4 bytes
4 bytes
Tamaño en sectores
Firma de unidad de arranque de 2 bytes ("55AA" en hexadecimal)
¿Por qué usar particiones lógicas?
Las particiones extendidas se inventaron como una forma de eludir el límite arbitrario de 4 particiones máximas por disco duro para poder crear una cantidad ilimitada de particiones lógicas, cada una con un sistema de archivos diferente al otro. Sin embargo, solo unos pocos sistemas operativos (como OS/2, Linux y cualquier Windows basado en Windows NT) pueden arrancar desde una partición lógica, por lo que comúnmente se dice que las particiones lógicas solo deben usarse para almacenar archivos de datos. son excepciones.
clúster (sistema de archivos)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 246
Un clúster (o unidad de asignación en la terminología de Microsoft) es un conjunto contiguo de sectores que conforman la unidad de almacenamiento más pequeña en un disco. Los archivos se almacenan en uno o más clústeres, según su tamaño. Sin embargo, si el archivo es más pequeño que un clúster, ocupará todo el clúster.
Los tamaños de los clústeres dependen del sistema de archivos utilizado, por lo que el espacio de almacenamiento perdido debido a archivos más pequeños que el tamaño del clúster depende del sistema de archivos que esté utilizando el disco.
La mayoría de los sistemas operativos tienen su propio sistema de archivos. Los sistemas de archivos se representan de forma textual o gráfica mediante un administrador de archivos. Los sistemas de archivos más comunes utilizan dispositivos de almacenamiento de datos que permiten acceder a los datos como una cadena de bloques de igual tamaño, a veces denominados sectores, normalmente de 512 bytes de longitud. El software del sistema de archivos es responsable de organizar estos sectores en archivos y carpetas y de realizar un seguimiento de qué sectores pertenecen a qué archivos y cuáles no se utilizan. De hecho, un sistema de archivos no requiere necesariamente un dispositivo de almacenamiento de datos, sino que también se puede utilizar para acceder a datos creados dinámicamente, como los datos recibidos a través de una conexión de red.
Un sistema de archivos generalmente tiene directorios que asocian nombres de archivos con archivos, generalmente asociando el nombre de archivo con un índice en una tabla de asignación de archivos de algún tipo, como FAT en sistemas de archivos MS-DOS o inodos en sistemas Unix. . La estructura de directorios puede ser plana o jerárquica (ramificada o "árbol"). En algunos sistemas de archivos, los nombres de los archivos están estructurados con una sintaxis especial para las extensiones de archivo y los números de versión. En otros, los nombres de archivo son solo cadenas de texto y los metadatos de cada archivo se almacenan por separado.
Tamaño de partición Tamaño de clúster 512 MB a 8191 MB 4 KB
8.192 MB a 16.383 MB 8 KB 16.384 MB y 32.767 MB 16 KB
Fin simple 32.768 MB 32 KB
En los sistemas de archivos jerárquicos, la ubicación exacta de un archivo generalmente se indica mediante una cadena de texto llamada "ruta". La denominación de rutas varía ligeramente de un sistema a otro, pero generalmente mantiene la misma estructura. Una ruta viene dada por una serie de nombres de directorios y subdirectorios, ordenados jerárquicamente de izquierda a derecha y separados por algún carácter especial, que suele ser una barra inclinada ('/') o una barra invertida ('\') y puede terminar con el nombre de un archivo que se encuentra en la última rama del directorio especificado.
El acceso seguro a los sistemas de archivos subyacentes se puede basar en esquemas o recursos de listas de control de acceso. Se descubrió que las listas de control de acceso eran inseguras hace décadas, por lo que los sistemas operativos experimentales utilizan la función de acceso. Los sistemas operativos comerciales aún funcionan con ACL.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 247
Los sistemas de archivos se pueden clasificar en tres ramas: sistemas de archivos de disco, sistemas de archivos de red y sistemas de archivos de propósito especial.
sistemas de archivos de disco
Un sistema de archivos de disco está diseñado para almacenar archivos en una unidad de disco que se puede conectar directa o indirectamente a la computadora.
Ejemplos de sistemas de archivos de disco:
• EFS • EXT2 • EXT3 • FAT (συστήματα αρχείων DOS και Windows) • UMSDOS • FFS • Fossil • HFS (για Mac OS) • HPFS • ISO 9660 (σύστημα αρχείων μόνο για ανάγνωση για CD-ROM) • JFS • KFS • MFS (για Mac OS) • Minix • NTFS (συστήματα αρχείων Windows NT) • OFS • ReiserFS • Reiser4 • UDF (χρησιμοποιείται σε DVD και ορισμένα CD-ROM) • UFS • XFS
Archivo de inicio principal
El registro de arranque maestro, o master boot record como también se le conoce (del inglés record Master Boot, cuyas siglas son MBR), es un sector de 512 bytes al principio del disco duro que sigue una secuencia de instrucciones necesarias para cargar un sistema operativo Esto significa que es el primer registro del disco duro que contiene un programa ejecutable y una tabla donde se definen las particiones del disco duro.
Es el primer sector físico (cilindro 0, cabezal 0, sector 1) asignado a un disco duro del sistema (el primer disco duro con número de región BIOS 0x80). A cada disco duro se le asigna un MBR, pero no todos los BIOS pueden iniciar el sistema operativo desde cualquiera de los discos duros. Al arrancar desde el disco duro, el BIOS copia el contenido del MBR a una dirección fija en la memoria y luego le da el control. Este código arrancará el sistema operativo, ya sea desde el disco duro o desde un Boot-Loader o cargador, algo más complicado como LILO, GRUB o GAG.
Cuando la computadora arranca, el BIOS ejecuta el MBR del dispositivo como está configurado en CMOS. Si no se encuentra el primer dispositivo, generalmente hay otros dispositivos alternativos, también configurados en CMOS, para que al menos uno pueda arrancar.
El MBR generalmente incluye la tabla de particiones y un código de inicialización para iniciar el sistema operativo. Estructura del registro de arranque maestro
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 248
Compensación Tamaño físico +00h Código ejecutable 446 bytes +1BEh Primera entrada de la tabla de particiones 16 bytes +1CEh Segunda entrada de la tabla de particiones 16 bytes +1DEh Tercera entrada de la tabla de particiones 16 bytes +1EEh Cuarta entrada de la tabla de particiones 16 bytes 55 Puntero expandible FE2 (AA)
Este diseño permite que el BIOS cargue cualquier sistema operativo sin saber exactamente dónde arrancar en su partición. Debido a que el MBR se lee casi inmediatamente cuando se enciende la computadora, muchos virus funcionan cambiando el código en el MBR. En los procesadores Intel, la secuencia del lenguaje ensamblador se ejecuta en modo real.
Guardar registro maestro de arranque estándar
Descripción de la dirección
Rango de código 0x0000
0x018A Para entradas de tabla de partición primaria de 9 bytes (extensiones de IBM opcionales para
de la tabla de particiones)
0x01B8 Firma de disco 4 bytes (opcional)
0x01BE Para entradas en la tabla de partición primaria para
16 bytes (sistema de partición MBR estándar)
0x01FE 2 bytes Firma MBR (0x55AA)
GRASA dentro
La tabla de asignación de archivos (FAT) es un sistema de archivos desarrollado para MS-DOS, así como el sistema de archivos principal para versiones no empresariales de Microsoft Windows a través de Windows Me.
El FET es relativamente simple. Debido a esto, es un formato de disquete popular que es compatible con casi todos los sistemas operativos de computadora existentes. Se utiliza como un mecanismo de intercambio de datos entre diferentes sistemas operativos que coexisten en la misma computadora, conocido como entorno de arranque múltiple. También se utiliza en tarjetas de memoria y dispositivos similares.
Las implementaciones más comunes de FAT tienen algunas desventajas. Cuando se eliminan archivos y se escriben nuevos archivos, tiende a dejar fragmentos de ellos dispersos por todo el lugar.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 249
el apoyo. Con el tiempo, esto hace que el proceso de lectura o escritura sea cada vez más lento. La llamada desfragmentación es la solución a esto, pero es un proceso largo que debe repetirse regularmente para mantener el sistema de archivos en perfectas condiciones. FAT tampoco está diseñado para ser redundante en caso de conmutación por error. Inicialmente, solo admitía nombres de archivo cortos: ocho caracteres para el nombre más tres para la extensión. Tampoco tiene permisos de seguridad: cualquier usuario puede acceder a cualquier archivo.
FAT16
En 1987 apareció lo que ahora se conoce como formato FAT16. Se eliminó el contador de sectores de 16 bits. El tamaño de la partición ahora estaba limitado por la cantidad de sectores por clúster, que era de 8 bits. Esto obligó al uso de clústeres de 32 Kbytes con los habituales 512 bytes por dominio. Por lo tanto, el límite final para FAT16 se fijó en 2 gigabytes.
Esta mejora estuvo disponible en 1988 gracias a MS-DOS 4.0. Mucho más tarde, Windows NT aumentó el tamaño máximo del clúster a 64 kilobytes gracias al "truco" de tratar el número del clúster como un número entero sin signo. Sin embargo, el formato resultante no era compatible con otras implementaciones en ese momento y también creó mucha fragmentación interna (se ocuparon clústeres completos, incluso si solo se necesitaban unos pocos bytes). Windows 98 apoyó esta extensión en términos de lectura y escritura. Sin embargo, las utilidades de su disco no pudieron funcionar con él.
FAT32
FAT32 fue la respuesta para superar el límite de tamaño de FAT16 manteniendo la compatibilidad con MS-DOS en funcionamiento real. Microsoft decidió implementar una nueva generación de FAT utilizando direcciones de clúster de 32 bits (aunque en realidad solo se usaron 28 de esos bits).
En teoría, esto debería permitir alrededor de 268 435 538 clústeres, lo que brinda tamaños de almacenamiento cercanos a los dos terabytes. Sin embargo, debido a las limitaciones de la utilidad ScanDisk de Microsoft, FAT32 no puede crecer más allá de 4 177 920 clústeres por disco. partición (es decir, unos 124 gigabytes). Más tarde, Windows 2000 y XP establecieron el límite de FAT32 en 32 gigabytes. Microsoft afirma que esta es una decisión de diseño, pero puede leer particiones más grandes creadas por otros medios.
FAT32 apareció por primera vez en Windows 95 OSR2. Fue necesario reformatear para usar FAT32. Curiosamente, DriveSpace 3 (incluido en Windows 95 y 98) no lo admitía. Windows 98 introdujo una herramienta para convertir FAT16 a FAT32 sin pérdida de datos. Este soporte no estaba disponible en el plan Enterprise antes de Windows 2000.
El tamaño máximo de archivo en FAT32 es de 4 gigabytes, lo que es molesto para los grabadores y editores de video, ya que los archivos creados por ellos superan fácilmente este límite.
NTFS
NTFS (New Technology File System) es un sistema de archivos diseñado específicamente para Windows NT (más tarde utilizado en Windows 2000, Windows XP y Windows Vista), con el objetivo de crear un sistema de archivos eficaz y potente con seguridad integrada desde el suelo. arriba. ... También es compatible con la compresión y el cifrado de archivos nativos (este último solo a partir de Windows 2000). Se basa en el sistema de archivos HPFS de
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 250
IBM/Microsoft se utiliza en el sistema operativo OS/2 y también tiene cierta influencia en el formato de archivo HFS desarrollado por Apple.
NTFS le permite establecer el tamaño del clúster desde 512 bytes (tamaño mínimo de un sector) independientemente del tamaño de la partición.
Es un sistema adecuado para las grandes particiones necesarias en estaciones de trabajo y servidores de alto rendimiento. Puede manejar discos de hasta 2 terabytes.
Las desventajas que da son:
• Necesita mucho espacio en disco duro para sí mismo, por lo que no se recomienda su uso en discos con menos de 400 MB libres.
• No compatible con MS-DOS, Windows 95, Windows 98 o Windows ME. • No se puede utilizar en disquetes.
Propiedades
NTFS es el sistema de archivos predeterminado en Windows NT y sus descendientes (rastros 2000, 2003 y XP), las versiones 9x (MS-DOS, Windows 95, Windows 98 y Windows ME) no pueden leer este sistema de archivos de manera confiable. son útiles para superar esta deficiencia.
NTFS reemplazó el sistema de archivos anterior de Microsoft, llamado FAT, común a MS-DOS y versiones anteriores de Windows.
NTFS incorpora muchas mejoras sobre el sistema FAT, como soporte mejorado de metadatos y el uso de estructuras de datos avanzadas (árboles B) para optimizar el rendimiento, la estabilidad y el uso del espacio en disco, así como nuevas características adicionales como seguridad, listas de control de acceso o calendario.
El tamaño de partición mínimo recomendado es de 10 MB. Aunque son posibles tamaños más grandes, el máximo recomendado en la práctica para cada volumen es de 2 TB (terabytes). El tamaño máximo de archivo está limitado por el tamaño del volumen.
Hay tres versiones de NTFS: v1.2 en NT 3.51 y NT 4, v3.0 en Windows 2000 y v3.1 en Windows XP y Windows 2003 Server. Estas versiones a veces se denominan v4.0, v5.0 y v5.1, en referencia a la versión de Windows en la que se incluyeron. Las versiones más recientes han incluido algunas características nuevas: Los porcentajes se introdujeron en Windows 2000.
proyectos
Todo lo relacionado con los archivos se almacena en forma de metadatos. Esto permitió que la funcionalidad se ampliara fácilmente durante el desarrollo de Windows NT. Un ejemplo es la inclusión de campos de índice, que se agregaron para permitir el funcionamiento de Active Directory.
Los nombres de los archivos se almacenan en Unicode (UTF-16) y la estructura de los archivos está en árboles B, una estructura de datos compleja que acelera el acceso a los archivos y reduce la fragmentación, que ha sido más criticada que el sistema FAT.
Se utiliza un registro de transacciones (diario) para garantizar la integridad del sistema de archivos (pero no de todos los archivos). Se muestran los sistemas que utilizan NTFS
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 251
estabilidad mejorada, que era un requisito absoluto dada la naturaleza inestable de las versiones anteriores de Windows NT.
Hay muchos proyectos de diversos grados de madurez que brindan acceso de lectura e incluso escritura a particiones NTFS de GNU/Linux y otros sistemas operativos compatibles con él.
interoperabilidad
Microsoft proporciona medios para convertir particiones FAT32 a NTFS, pero no al revés (NTFS a FAT32). Partition Magic de Symantec y el proyecto NTFS Resize de código abierto tienen la capacidad de cambiar el tamaño de las particiones NTFS.
Por razones históricas, absolutamente todas las versiones de Windows que todavía no soportan NTFS almacenan la fecha y la hora internamente como hora local, por lo que los sistemas de archivos correspondientes a esas versiones de Windows también tratan la hora localmente. Sin embargo, Windows NT y sus sucesores almacenan la hora en formato GMT/UTC y realizan las conversiones adecuadas cuando muestran las fechas. De esta forma, al copiar archivos entre un volumen NTFS y un volumen que no es NTFS, las conversiones deben hacerse "sobre la marcha", lo que puede resultar confuso si DST está activo en la copia de algunos archivos y no en pero. puede crear archivos cuya marca de tiempo se compensa en una hora.
formato de disco)
En las computadoras, el formato de un disco es cómo se organizan los datos en él. Aunque existen dos tipos de formatos (natural y lógico), los usuarios normalmente solo conocen el lógico.
Forma física o de bajo nivel
Consiste en colocar marcas en la superficie magnética del disco para dividirlo en sectores físicos referenciables, indicando la cabeza de lectura y el sector y cilindro a leer.
En las computadoras compatibles con PC, los sectores físicos han sido de 512 bytes desde la era de MS-DOS, aunque los sistemas operativos posteriores los agruparon en grupos cuando se creó el sistema de archivos.
Normalmente, solo los disquetes necesitan un formateo de bajo nivel. Los discos duros vienen formateados de fábrica y el formateo nunca se pierde durante el funcionamiento normal, incluso si es defectuoso (se puede perder por campos magnéticos o altas temperaturas).
Formato lógico o sistema de archivos
El formateo lógico generalmente lo pueden realizar los propios usuarios, aunque muchos medios ya vienen formateados en la fábrica. El formato lógico implementa un sistema de archivos que asigna sectores a los archivos.
En los discos duros, para que puedan coexistir diferentes sistemas de archivos, antes de realizar un formateo lógico, se debe particionar el disco. posteriormente cada partición se configura por separado.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 252
Formatear un dispositivo implica borrar datos ya que cambia la distribución de archivos en sectores, perdiendo la antigua distribución que permitía el acceso a los archivos.
Cada sistema operativo tiene algunos sistemas de archivos comunes:
• Windows: FAT, FAT16, FAT32, NTFS. • Linux: EXT2, EXT3, ReiserFS. • Mac: HFS.
Antes de poder utilizar un disco para almacenar datos, debe formatearse. Esto lo prepara para guardar la información. Las unidades extraíbles (disquetes, CD, USB, unidades Zip, etc.) que compra generalmente ya están formateadas, pero es posible que encuentre algunas sin formatear de vez en cuando. Es posible que no esté preconfigurado un nuevo disco duro o grabadora de cinta.
Un formulario completo generalmente hace tres cosas:
• Elimina toda la información anterior. • Crea un sistema de grabación que organiza qué y dónde se debe encontrar en el disco. • Revisar el disco por posibles defectos físicos o magnéticos que pueda tener.
Usando el comando Fdisk para particionar discos duros:
El programa FDISK proporciona información sobre las particiones con las que es posible crear o eliminar particiones y unidades lógicas, y configurar la partición activa si aún no existe.
FDISK destruye todos los archivos existentes en cualquier partición cuando se modifica, por lo que es importante hacer una copia de seguridad de estos archivos antes de usar FDISK.
Con un disco de arranque de Windows 98 o Windows Me, podemos acceder a la línea de comandos, para crear el disco de arranque vamos a Panel de control - Agregar o quitar programas - Disco de inicio.
Arrancamos nuestra computadora con el disco en la disquetera y desde A:\ escribimos "fdisk", la información desplegada tendrá la siguiente forma:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 253
Opciones de FDISK
disco duro actual: 1
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo funciona si hay más de una unidad física en nuestro sistema)
Indique la opción seleccionada: [ 1 ]
Presione ESC para salir de FDISK
El menú indica el disco duro en uso con un número, para un solo disco duro en nuestro ordenador siempre mostrará 1, para más de uno el número indicará con qué FDISK está trabajando.
Las siguientes unidades de disco duro se enumerarán consecutivamente y siempre se referirán a unidades físicas en lugar de lógicas.
NOTA: Al ingresar a FDISK nos preguntará sobre la posibilidad de usar dispositivos grandes, esto es necesario si queremos formatear en FAT32 en lugar de FAT (FAT16). FAT32 es una versión mejorada del FAT original que le permite crear particiones de más de 2 GB.
Por defecto aparecerá la opción [S], si eso es lo que quieres, acéptalo.
Del mismo modo, cuando ingresemos si tenemos unidades formateadas en NTFS, nos lo hará saber.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 254
++++++++++++++++++++++++++++++++++++++++++++++++++++++ ++++++++++++++++++++++++++ ++ +++++++
ENVIAR INFORMACIÓN
Puede obtener información sobre las particiones: estado, tipo y tamaño usando la opción 4 (Mostrar información de la partición), la visualización en la pantalla debería verse así:
Mostrar información del apartamento
disco duro actual: 1
Etiqueta de volumen de tipo de estado de partición
Uso del sistema MB
C: 1 A PRI DOS 20 FAT32 50 %
2 DOS EXT 20 50 %
El espacio total en disco es de 40 MB (1 MB = 1048576 bytes).
La partición extendida de DOS contiene unidades lógicas de DOS. ¿Quiere ver la información de la unidad lógica? [PEQUEÑO]
Presione ESC para volver a la configuración de FDISK
Lógicamente, esta información es variable en cada disco duro:
Partición: muestra la letra de unidad asignada a cada partición, así como el número de partición.
Estado: Muestra si la partición está habilitada o no, (A) para partición habilitada.
Tipo: indica si se trata de una partición DOS primaria (PRI DOS), una partición DOS extendida (EXT DOS) o una partición NO-DOS.
Etiqueta de volumen: Muestra el nombre que le dimos al volumen si lo tiene.
MB: Indica el tamaño de cada partición en megabytes.
Sistema: actualiza el tipo de sistema de archivos utilizado en cada partición.
Uso: muestra el porcentaje ocupado por cada partición en el disco actual.
Si la partición extendida contiene discos lógicos, decimos que sí [S] a la pregunta:
La partición extendida de DOS contiene unidades lógicas de DOS. ¿Quiere ver la información de la unidad lógica? [PEQUEÑO]
Nos mostrará algo similar a:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 255
Etiqueta de dispositivo Volumen Uso del sistema MB
D: DATOS 15 FAT32 70% E: PROGRAMADOR 5 FAT32 30%
Partición de DOS extendida total 20 MB (1 MB = 1048576 bytes)
Presione ESC para continuar
Información que también varía según el tamaño y la cantidad de unidades lógicas:
Unidad: especifica la letra de cada unidad lógica.
Etiqueta de volumen: Muestra el nombre que le dimos al volumen si lo tiene.
MB: Indica el tamaño de cada unidad lógica en megabytes.
Sistema: actualiza el tipo de sistema de archivos utilizado en cada partición.
Uso: muestra el porcentaje de espacio ocupado por cada unidad lógica en la partición extendida.
Crear una partición primaria de los dos
El disco duro que inicia el sistema debe tener una partición DOS primaria, como ya hemos mencionado, esta partición puede ocupar todo el espacio disponible en el disco duro o solo una parte del mismo.
Si decidimos dejar espacio libre, puede ser ocupado por una partición DOS extendida por discos lógicos o por una partición NON-DOS.
Una vez que se crea la partición primaria, no se puede cambiar su tamaño.
Crear una única partición primaria
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo sucede si hay más de una unidad física en nuestro sistema)
Indique la opción seleccionada: [ 1 ]
Para crear una partición primaria o una unidad lógica de DOS, elegimos la opción número 1.
En este punto se nos preguntará si queremos usar todo el espacio disponible en el disco duro:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 256
¿Desea utilizar el tamaño máximo disponible para una partición primaria y habilitar esa partición (S/N)...............? [PEQUEÑO]
Responderemos afirmativamente, FDISK creará una partición primaria que ocupará todo el disco duro, en pantalla aparecerá lo siguiente:
El sistema se reinicia Inserte el disco del sistema en la unidad A: presione cualquier tecla cuando esté listo
La nueva partición del disco duro debe formatearse con el comando FORMAT. Tendremos que reiniciar el sistema. Con Format /s después de formatear, este comando copia los archivos del sistema IO.SYS, MSDOS.SYS y COMMAND.COM en el disco. Si el comando FORMAT no encuentra estos archivos, le pedirá que inserte un disco del sistema.
Cree una partición primaria que libere espacio para una extensión:
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo funciona si hay más de una unidad física en nuestro sistema)
Indique la opción seleccionada: [ 1 ]
Después de ejecutar FDISK, elegimos la opción número 1 nuevamente.
En este punto se nos preguntará si queremos usar todo el espacio disponible en el disco duro:
¿Desea utilizar el tamaño máximo disponible para una partición primaria y habilitar esa partición (S/N)...............? [NORTE]
En este caso responderemos negativamente, aparecerá un nuevo menú, en él indicaremos el tamaño que queremos que tenga especificado la partición principal en MB (1 MB = 1048576 bytes) o en porcentaje (%) (100% es la totalidad disk ), obtenemos un nuevo mensaje que indica que se ha creado la partición primaria de DOS:
Partición primaria creada. Se cambiaron o agregaron letras de unidad.
Presionemos ESC para regresar al menú principal de FDISK.
Siempre es obligatorio reiniciar la máquina antes de hacer cualquier otra cosa. Ni siquiera volver a FDISK o ejecutar FORMAT sin reiniciar.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 257
Crear una partición extendida
Si queremos tener más de una partición en nuestro disco duro, podemos crear particiones extendidas además de la partición principal.
Si disponemos de un solo disco duro, será necesario haber creado previamente una partición primaria y disponer de espacio libre tras crearla.
Si tenemos más de un disco duro, solo el que usamos para iniciar el sistema debe tener una partición primaria, mientras que las otras unidades solo pueden contener particiones extendidas.
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo funciona si hay más de una unidad física en nuestro sistema)
Indique la opción seleccionada: [ 1 ]
Después de ejecutar FDISK, elegimos la opción número 1 nuevamente.
Nos aparecerá el siguiente mensaje en pantalla:
Disco duro actual: 1
Elija una de las siguientes opciones:
1. Cree una partición primaria de DOS 2. Cree una partición de DOS extendida 3. Cree unidades lógicas de DOS en la partición de DOS extendida
Introduzca el número de su elección [2]
Presione ESC para volver a la configuración de FDISK
Elegimos la opción 2.
Se nos presentará el tamaño total disponible para una partición extendida en MB, el valor predeterminado para el tamaño de partición extendida será el máximo disponible en el disco duro menos el tamaño de la partición primaria.
Si queremos utilizar el espacio libre restante en el disco duro (espacio por defecto), pulsamos ENTER.
Si queremos utilizar solo una parte del espacio disponible, escribimos el número de MB o el porcentaje que queremos que ocupe la partición extendida.
La opción de crear unidades lógicas aparece en el menú de particiones extendidas de DOS, para almacenar información en una partición extendida, necesitamos crear una o más unidades lógicas a las que se les asignará una letra.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 258
Las unidades lógicas pueden almacenar y recuperar información como si fueran unidades físicas.
Crear unidades lógicas en partición extendida
Una vez creada la partición extendida volvemos al menú anterior y seleccionamos la opción 3:
3. Cree unidades lógicas de DOS en la partición de DOS extendida
Por defecto, si presionamos ENTER, la unidad lógica ocupará todo el espacio disponible para la partición extendida. Si lo que queremos es crear varias unidades lógicas, especificaremos el tamaño que queremos que ocupe cada unidad lógica sucesivamente (en MB o porcentaje) hasta utilizar todo el espacio disponible para la partición extendida.
Recuerda que una vez finalizado el proceso, se debe formatear cada unidad lógica que se cree.
Asignación de licencia de conducir
Generalmente, la letra C se asigna a la partición DOS primaria activa en el primer disco duro físico.
La partición extendida de DOS se puede dividir en una o más unidades lógicas (de la A a la Z).
Las unidades A y B están reservadas para unidades de disquete y no se pueden reasignar.
A partir de aquí, las letras de unidad se asignan secuencialmente desde C, es decir, si tenemos un disco duro con dos particiones, las siguientes letras asignadas a cada unidad serán D y E.
Si instalamos un nuevo disco duro, pero no hemos creado particiones primarias en él, la letra que se le asigne será la siguiente que le corresponda después de la última letra asignada a la última unidad lógica de nuestro primer disco duro, por ejemplo, .
Pero si creamos una partición primaria en nuestro segundo disco duro, esa partición ahora será D, haciendo que la primera unidad lógica en nuestro primer disco duro sea E (antes de D) y la segunda F (antes de E).
CD, CDRW, ZIP y otros dispositivos grabarán las letras consecutivas después de la última unidad lógica del último disco duro, es decir, si nuestro disco duro es C con particiones D y E, el CD será F y la grabadora G.
Recuerde que después de mapear las particiones, debemos reiniciar la computadora para que se asignen las letras de unidad. Si intentamos formatear sin reiniciar el sistema obtendremos un mensaje de error.
establecer partición activa
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 259
La partición activa es la que contiene nuestro sistema operativo, a menos que la partición primaria ocupe todo el disco, necesitamos definir cuál es esa partición.
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo funciona si hay más de una unidad física en nuestro sistema)
Indique la opción seleccionada: [ 2 ]
Nos mostrará un menú con la partición activa indicada por defecto con la letra A. Aquí podremos activar otra partición si es necesario. Solo se pueden activar particiones primarias.
Eliminar particiones o unidades lógicas
Si necesitamos cambiar el tamaño de las particiones o aumentar la cantidad de unidades lógicas, esto solo es posible si primero eliminamos esas particiones o unidades lógicas y comenzamos el proceso nuevamente.
Es necesario saber que cuando borras una partición se borran todos los datos que contiene, recuerda si es necesario crear copias de seguridad de los archivos que nos interesen.
Solo eliminamos la información de la partición o unidad lógica que estemos eliminando, el resto de particiones o unidades lógicas no se verán afectadas.
Si al eliminar las unidades lógicas se han creado otras posteriormente en orden alfabético, se moverán:
Elija una de las siguientes opciones:
1. Crear partición DOS o unidad lógica 2. Establecer partición activa 3. Eliminar partición DOS o unidad lógica 4. Ver información de partición 5. Cambiar unidad (Esto solo sucede si hay más de una unidad física en nuestro sistema)
Especifique la opción seleccionada: [ 3 ]
Tras elegir esta opción, FDISK nos mostrará el estado de la partición o unidades lógicas y un mensaje de aviso de que se perderá toda la información contenida en ella.
Escribiremos el número correspondiente a la letra de la unidad y el volumen (si lo hay) de la unidad lógica o partición que queremos eliminar, FDISK no dará un mensaje de confirmación de la información ingresada.
escribimos [S]
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 260
Si eliminamos la partición primaria, necesitaremos volver a crearla y configurarla para que arranque desde el disco duro nuevamente.
formato de disco duro
Después de eliminar, modificar o crear nuevas particiones, el sistema se reiniciará y deberá formatear esas particiones nuevamente.
Si no lo hiciéramos y arrancáramos sin tener un disco de arranque en la unidad de disco, recibiríamos el siguiente mensaje de error:
Tipo de medio no válido
Si la unidad que se va a formatear es la unidad principal, asegúrese de agregar el modificador /S al comando FORMAT:
FORMULARIO /S
Este comando copia los archivos del sistema IO.SYS, MSDOS.SYS y COMMAND.COM en el disco.
Si el comando FORMAT no encuentra estos archivos nos pedirá que insertemos un disco del sistema.
Necesitamos reiniciar el sistema.
modificadores fdisk
Algunos virus se colocan en el sector de arranque (MBR) para evitar que se ejecute el sistema operativo. El siguiente comando restablece el sector de arranque eliminando el virus:
FDISK/MBR
El siguiente comando proporciona información sobre el estado de su disco duro, su número, particiones y capacidad:
FDISCO/ESTADO
Formato/s: Solo versiones de Windows 98.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 261
Dispositivos internos:
Tarjeta de video:
Una tarjeta gráfica, tarjeta de video o tarjeta de aceleración de gráficos es una tarjeta de expansión para una computadora personal que se encarga de procesar los datos provenientes de la CPU y convertirlos en información comprensible y representable en un dispositivo de salida, como un monitor o un televisor. .
Tanto las tarjetas dedicadas como las tarjetas separadas y las GPU integradas en la placa base se indican con el mismo término (incluso si ofrecen características inferiores).
Algunas tarjetas gráficas ofrecían funciones adicionales, como grabación de video, sintonización de TV, decodificación de MPEG-2 y MPEG-4, o incluso puertos Firewire, mouse, lápiz o joystick.
Las tarjetas gráficas no son un dominio exclusivo de las computadoras. Dispositivos como el Commodore Amiga (conectado a través de las ranuras Zorro II y Zorro III), Apple II, Apple Macintosh, Spectravideo SVI-328, equipos MSX y, por supuesto, consolas de juegos.
Historia
La historia de las tarjetas gráficas comienza a fines de la década de 1960, cuando pasaron de usar impresoras como componente de pantalla a usar monitores. Fueron las tarjetas de video las que crearon estas primeras imágenes.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 262
La primera tarjeta gráfica lanzada con las primeras computadoras IBM fue desarrollada por IBM en 1981. El MDA (Monochrome Graphics Adapter) operaba en modo texto y era capaz de mostrar 25 líneas de 80 caracteres en la pantalla. Tenía 4 KB de memoria de video, por lo que solo podía funcionar con una página de memoria. Se utilizó con pantallas monocromáticas, generalmente de color verde.
A partir de ahí, siguieron varios controladores gráficos, que se resumen en la tabla adjunta.
VGA fue muy popular, lo que llevó a empresas como ATI, Cirrus Logic y S3 Graphics a trabajar en esta tarjeta para mejorar la resolución y la cantidad de colores. Así nació el estándar SVGA (Super VGA). Con este estándar se lograron 2 MB de memoria de video y resoluciones de 1024 x 768 puntos en 256 colores.
El desarrollo de las tarjetas gráficas dio un giro importante en 1995 con la aparición de las primeras tarjetas 2D/3D, fabricadas por Matrox, Creative, S3 y ATI entre otras. Estas placas siguieron el estándar SVGA pero incorporaron características 3D. En 1997, 3dfx lanzó el chip gráfico Voodoo, de gran potencia informática, así como nuevos efectos 3D (Mip Mapping, Z-Buffering, Antialiasing...). A partir de ese momento, siguieron una serie de lanzamientos de tarjetas gráficas, incluidos Voodoo2 de 3dfx, TNT y TNT2 de NVIDIA. La energía consumida por estas tarjetas era tal que el puerto PCI donde estaban conectadas se cortó. Intel desarrolló el puerto AGP (Accelerated Graphics Port) que solucionaría los cuellos de botella que comenzaban a aparecer entre el procesador y la tarjeta. De 1999 a 2002, NVIDIA dominó el mercado de las tarjetas gráficas (haciéndose cargo de 3dfx) con la serie GeForce. Durante este período, las mejoras se orientaron hacia los algoritmos 3D y la velocidad de los procesadores gráficos. Sin embargo, también se necesitaban memorias para mejorar su velocidad, por lo que las memorias DDR se integraron en las tarjetas gráficas. Las capacidades de la memoria de video actualmente van desde 32 MB para GeForce hasta 64 y 128 MB para GeForce 4.
En 2006, NVIDIA y ATI compartieron el liderazgo del mercado con sus series de chips gráficos GeForce y Radeon, respectivamente.
GPU
Una GPU es un procesador (como una CPU) dedicado al procesamiento de gráficos. Su razón de ser es reducir la carga de trabajo del procesador central y, por lo tanto, se optimizó para el cálculo de punto flotante, que domina las operaciones 3D. La mayoría de
Año Modo Texto Modo Gráficos Colores Memoria
MDA 1981 80*25 - 1 4 KB
CGA 1981 80*25 640*200 4 16 KB
HGC 1982 80*25 720*348 1 64 KB
EGA 1984 80*25 640*350 16 256 KB
IBM 8514 1987 80*25 1024*768 256-
AGMC 1987 80*25 320*200 256 -
VGA 1987 720*400 640*480 256 256 KB
SVGA 1989 80*25 1024*768 256 2 MB
XGA 1990 80*25 1024*768 65K 1MB
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 263
La información en las especificaciones de una tarjeta gráfica se refiere a las características de la GPU, ya que es la parte más importante de la tarjeta. Dos de las características más importantes son la frecuencia de reloj del núcleo, que en 2006 osciló entre 250 MHz en tarjetas de gama baja y 650 MHz en tarjetas de gama alta, y el número de conductos (vértices de fragmentos y sombreadores) que son responsables de traducir una imagen 3D que consta de vértices y líneas en una imagen 2D que consta de píxeles.
memoria de video
Dependiendo de si la tarjeta gráfica está integrada en la placa base (bajo rendimiento) o no, utilizará la propia memoria RAM del equipo o tendrá la suya propia. Esta memoria es la memoria de video o VRAM. Su tamaño varía de 128 MB a 768 MB. La memoria utilizada en 2006 se basó en tecnología DDR, con énfasis en DDR2, GDDR3 y GDDR4. La frecuencia del reloj de la memoria estaba entre 400 MHz y 1,6 GHz.
Una parte importante de la memoria de un adaptador de video es el búfer Z, que se encarga de controlar las coordenadas de profundidad de las imágenes en gráficos 3D.
RAMDAC
RAMDAC es un convertidor de RAM digital a analógico. Se encarga de convertir las señales digitales producidas en la computadora en una señal analógica que pueda ser interpretada por el monitor. Dependiendo de la cantidad de bits que maneje a la vez y la velocidad a la que lo haga, el conversor puede soportar diferentes frecuencias de actualización de pantalla (recomendado desde 75 Hz, nunca por debajo de 60). Con la creciente popularidad de las pantallas digitales y el hecho de que parte de su funcionalidad se haya trasladado a la placa base, RAMDAC se está volviendo obsoleto.
Salidas
Los sistemas de conexión más comunes entre la tarjeta gráfica y el dispositivo de visualización (como un monitor o TV) son:
SVGA, S-Video y DVI
• SVGA: estándar analógico de la década de 1990. Diseñado para dispositivos CRT, sufre de ruido eléctrico y distorsión de la conversión de digital a analógico y errores de muestreo al decidir qué píxeles enviar a la pantalla.
Tecnología Frecuencia (MHz) Ancho de banda (GB/s)
RDA 166 - 950 1,2 - 30,4
DDR2 533 - 1000 8,5 - 16
GDDR3 700 - 1700 5,6 - 54,4
GDDR4 1600 - 1800 64 - 86,4
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 264
• DVI: sustitución del anterior, diseñado para conseguir la máxima calidad de visualización en pantallas digitales como LCD o proyectores. Evite la distorsión y el ruido asignando directamente un píxel para que se represente con una de las pantallas en su resolución nativa.
• S-Video: Incluido para admitir televisores, reproductores de DVD, VCR y consolas de juegos.
Otros que no eran tan comunes en 2007 son:
• Vídeo compuesto: analógico de muy baja resolución mediante conector RCA. • Vídeo por componentes: también se utiliza para proyectores. de calidad comparable a
Un SVGA tiene tres patas (Y, Cb y Cr). • HDMI: Nueva tecnología digital en 2007 que pretende reemplazar todo
el resto.
interfaces de placa base
En orden cronológico, los sistemas de conexión entre la tarjeta gráfica y la placa base fueron principalmente:
• ISA: 8 MHz, arquitectura de bus de 16 bits, dominante en la década de 1980. Creado en 1981 para la PC de IBM.
• MCA: intento de IBM de sustituir a ISA en 1987. Tenía 32 bits y una velocidad de 10 MHz, pero era incompatible con los anteriores.
• EISA: 1988 respuesta a la competencia de IBM. 32 bits, 8,33 MHz y compatible con versiones anteriores.
• VESA: extensión ISA que resolvió la limitación de 16 bits, duplicó el tamaño del bus y funcionó a 33 MHz.
• PCI: bus que sustituyó a los anteriores a partir de 1993. Con un tamaño de 32 bits y una velocidad de 33 MHz, permitía la configuración dinámica de los dispositivos conectados sin necesidad de realizar jumpers manualmente. PCI-X fue una versión que aumentó el tamaño del bus a 64 bits y aumentó su velocidad a 133 MHz.
• AGP: bus dedicado, 32 bit como PCI. en 1997, la versión original aumentó la velocidad a 66 MHz.
• PCIe: interfaz serial que comenzó a competir con AGP en 2004 y duplicó su ancho de banda en 2006. No debe confundirse con PCI-X, una versión de PCI.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 265
En la tabla adjunta se muestran las características más relevantes de algunas de estas interfaces.
dispositivos de enfriamiento
Conjunto de ventilador y disipador de calor
Debido a la carga de trabajo a la que están sometidas, las tarjetas gráficas alcanzan temperaturas muy altas. Si no se tiene en cuenta, el calor generado puede dañar, obstruir o incluso dañar el dispositivo. Para evitar esto, se incorporan dispositivos de refrigeración para eliminar el exceso de calor de la tarjeta. Se distingue entre dos tipos:
• Disipador: unidad pasiva (sin partes móviles y por lo tanto silenciosa). Está hecho de material termoconductor y elimina el calor de la tarjeta. Su eficacia depende de la estructura y superficie total, por lo que resultan bastante voluminosos.
• Ventilador: unidad activa (con partes móviles). elimina el calor de la tarjeta moviendo el aire cercano. Es menos eficiente que un disipador de calor y produce ruido debido a las piezas móviles.
Anchura Bus (bits)
Frecuencia (MHz)
Ancho de banda del puerto (MB/s)
ONE XT 8 4.77 8 Paralelo
UM E 16 8.33 16 Paralelo
MCA 32 10 20 Paralelo
EISA 32 8,33 32 Paralelo
VESA 32 40 160 Paralelo
PCI 32 - 64 33 - 100 132 - 800 Paralelo
AGP 1x 32 66 264 Paralelo
AGP 2x 32 133 528 Paralelo
AGP 4x 32 266 1000 Paralelo
AGP 8x 32 533 2000 Paralelo
PCIe x1 1*32 25/50 serie 100/200
PCIe x4 1*32 25/50 serie 400/800
Serie PCIe x8 1*32 25/50 800/1600
Serie PCIe x16 1*32 25/50 1600/3200
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 266
Aunque diferentes, ambos tipos de dispositivos son compatibles entre sí y suelen colocarse juntos en tarjetas gráficas. un disipador de calor sobre la GPU (la parte más caliente de la tarjeta) disipa el calor y un ventilador en la parte superior aleja el aire caliente del ensamblaje.
alimentación
Hasta ahora, la fuente de alimentación de las tarjetas gráficas no ha supuesto un gran problema, pero la tendencia actual con las nuevas tarjetas es consumir cada vez más energía. Aunque las fuentes de alimentación son cada vez más potentes, el cuello de botella es el puerto PCIe, que solo puede entregar 150 W de potencia. Por ello, las tarjetas gráficas de mayor consumo que PCIe incluían un conector (PCIe power connector) que permite una conexión directa entre la fuente de alimentación y la tarjeta sin tener que pasar por la placa base y por tanto por el puerto PCIe.
Sin embargo, se espera que pronto las tarjetas gráficas no necesiten fuente de alimentación propia, convirtiendo este conjunto en periféricos.
Fabricantes
En el mercado de las tarjetas gráficas hay que distinguir entre dos tipos de fabricantes:
• Desde chips: g Desde chips: crea solo la GPU. Los dos más importantes son:
ATI es NVIDIA
• Mapa: Integrar las fichas adquiridas de las anteriores con el resto del mapa, según su propio diseño. Por lo tanto, las tarjetas con el mismo chip dan resultados diferentes según la marca.
La tabla adjunta muestra los dos fabricantes de chips y algunos de los fabricantes de tarjetas con los que trabajan.
API de gráfico
A nivel de desarrollador, trabajar con una tarjeta gráfica es complicado. Por lo tanto, aparecieron interfaces que eliminaron la complejidad y diversidad de las tarjetas gráficas primitivas. Los dos más importantes son:
• Direct3d: lanzado por Microsoft en 1996 y forma parte de la biblioteca de DirectX. Solo funciona para Windows. Es utilizado por la mayoría de los videojuegos disponibles en el mercado para Windows.
• OpenGL: creado por Silicon Graphics a principios de los 90. Es gratuito, gratuito y multiplataforma. Se utiliza principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Direct3D está siendo expulsado del mercado de los videojuegos.
fabricantes de GPU
y nvidia
VISTA GECUBO
GALAXIA DE RADEON
ZAFIRO XFX
asus asus
Fabricantes
de las letras
GIGABYTE ABIERTO
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 267
efectos gráficos
Algunas de las técnicas o efectos comúnmente utilizados o creados por las tarjetas gráficas son:
• Antialiasing: retoque para evitar el aliasing, un efecto que se produce cuando las curvas y las líneas diagonales se representan en un espacio discreto y limitado, como los píxeles de la pantalla.
• Shader: procesamiento de píxeles y vértices para, entre otros, efectos de iluminación, efectos físicos, superficies multicapa.
• HDR: técnica innovadora para representar la amplia gama de niveles de intensidad en escenas reales (desde la luz directa hasta las sombras oscuras).
• Mapeo de texturas: técnica que agrega detalles a las superficies del modelo sin aumentar su complejidad.
• Desenfoque de movimiento: efecto de desenfoque debido a la velocidad de un objeto en movimiento.
• Desenfoque de profundidad: un efecto de desenfoque logrado por la distancia de un objeto. • Lens flare: simula destellos producidos por fuentes de luz. • Efecto Fresnel (reflexión especular): reflexiones en un material según
ángulo entre la superficie normal y la dirección de observación. Cuanto mayor sea el ángulo, más reflexivo.
API de gráfico
A nivel de desarrollador, trabajar con una tarjeta gráfica es complicado. Por lo tanto, aparecieron interfaces que eliminaron la complejidad y diversidad de las tarjetas gráficas primitivas. Los dos más importantes son:
• Direct3D: lanzado por Microsoft en 1996 y forma parte de la biblioteca de DirectX. Solo funciona para Windows. Es utilizado por la mayoría de los videojuegos disponibles en el mercado para Windows.
• OpenGL: creado por Silicon Graphics a principios de los 90. Es gratuito, gratuito y multiplataforma. Se utiliza principalmente en aplicaciones de CAD, realidad virtual o simulación de vuelo. Direct3D está siendo expulsado del mercado de los videojuegos.
efectos gráficos
Algunas de las técnicas o efectos comúnmente utilizados o creados por las tarjetas gráficas son:
• Antialiasing: retoque para evitar el aliasing, un efecto que se produce cuando las curvas y las líneas diagonales se representan en un espacio discreto y limitado, como los píxeles de la pantalla.
• Shader: procesamiento de píxeles y vértices para, entre otros, efectos de iluminación, efectos físicos, superficies multicapa.
• HDR: técnica innovadora para representar la amplia gama de niveles de intensidad en escenas reales (desde la luz directa hasta las sombras oscuras).
• Mapeo de texturas: técnica que agrega detalles a las superficies del modelo sin aumentar su complejidad.
• Desenfoque de movimiento: efecto de desenfoque debido a la velocidad de un objeto en movimiento.
• Desenfoque de profundidad: un efecto de desenfoque logrado por la distancia de un objeto. • Lens flare: simula destellos producidos por fuentes de luz. • Efecto Fresnel (reflexión especular): reflexiones en un material según
ángulo entre la superficie normal y la dirección de observación. Cuanto mayor sea el ángulo, más reflexivo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 268
moderno
Acrónimo de las palabras modulador/demodulador. El módem actúa como un equipo de terminación de circuito de datos (DCE) que permite transmitir un flujo de datos digitales a través de una señal analógica.
El modulador emite una señal analógica estable llamada onda portadora. Suele ser una señal sinusoidal simple. Dado que desea transmitir datos digitales, algunas características de la señal portadora cambian. Esto indica si se está enviando un "cero" o un "uno". Las características de la señal portadora que se pueden cambiar son:
• Fase que lleva a la modulación de fase (PM/PSK). • Frecuencia, resultando en modulación de frecuencia (FM/FSK). • Amplitud, resultando en modulación de amplitud (AM/ASK).
También es posible una combinación de modulaciones o modulaciones más complejas, como la modulación de amplitud en cuadratura.
El demodulador interpreta los cambios en la señal portadora para reconstruir el flujo de datos digitales.
tipos de módem
La principal distinción que se suele hacer es entre módems internos y módems externos, aunque recientemente han aparecido módems denominados "software modems", más conocidos como "winmodems" o "linux modems", que han complicado un poco el panorama.
• Interna: consiste en una tarjeta de expansión sobre la que se ubican los distintos componentes que componen el módem. Están disponibles para diferentes tipos de enlace:
o Bus ISA: debido a las bajas velocidades que soportan estos dispositivos, este conector se utilizó de forma exclusiva durante muchos años, hoy en día no se utiliza.
o PCI: el formato más común en la actualidad. o AMR: solo en algunas placas base muy modernas. barato, pero no recomendado
su pobre desempeño.
La principal ventaja de estos módems es una mayor integración con el ordenador, ya que no ocupan espacio en la mesa y se alimentan del propio ordenador. Además suelen ser un poco más baratos al no tener caja y adaptador, sobre todo si son PCI (aunque en ese caso son casi todos del tipo "software modem". Al contrario, son un poco más complicados para instalar y la información sobre su estado solo se pueden descargar a través de software.
• Externo: similar a los anteriores, pero externo al ordenador o PDA. La ventaja de estos módems es que son fáciles de transportar entre diferentes ordenadores (algunos más fáciles de transportar y más pequeños que otros), además de poder conocer el estado del módem (llamadas, on/off line, transmisión... ) a través de los LEDs que suele tener en un panel frontal. En cambio, ocupan espacio. Tipos de conexión:
•
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 269
o La conexión de los módems telefónicos a la computadora generalmente se realiza a través de uno de los puertos seriales o COM tradicionales, por lo que se usa el UART de la computadora, que debería ser capaz de proporcionar suficiente velocidad de comunicación. El UART debe ser 16550 o superior para que un módem de 28800 bps o superior funcione correctamente. Estos módems necesitan un enchufe para su adaptador
o Módems de tarjeta de PC: estos son módems con forma de tarjeta que se usaban en computadoras portátiles, antes de la llegada del USB, y se pueden usar tanto en computadoras de escritorio como portátiles. Su tamaño es similar a una tarjeta de crédito un poco más gruesa, pero sus opciones pueden ser iguales o más avanzadas que los modelos normales.
o Existen modelos para puerto USB, con una conexión y configuración aún más sencilla, que no requieren enchufe. Hay modelos para conexiones fijas y móviles. Ver: Módem USB Vodafone Mobile Connect 3G.
• Módems software, HSP o Winmodem: suelen ser módems internos donde se han eliminado diversas partes electrónicas (generalmente chips especializados) para que el microprocesador de la computadora proporcione su funcionamiento a través de un programa. Suelen utilizar una ranura PCI (o AMR) como conexión, aunque no todos los módems PCI son de este tipo. El uso de la CPU degrada el rendimiento de otras aplicaciones de usuario. Además, la necesidad de que exista el programa puede imposibilitar su uso con sistemas operativos no soportados por el fabricante, de forma que, por ejemplo, si el fabricante desaparece, el módem quedará inservible en caso de un futuro sistema. actualizar. A pesar del bajo costo, no se recomiendan.
• Módems completos: Los clásicos módems no HSP, internos o externos. En estos, el rendimiento depende casi por completo de la velocidad del módem y la UART, no del microprocesador.
módem de teléfono
Su uso más común y conocido es en transmisiones telefónicas de datos. Las computadoras procesan datos digitalmente. Sin embargo, las líneas telefónicas de la red básica solo transmiten señales analógicas.
Los métodos de configuración y otras características de los módems telefónicos están estandarizados por el ITU-T (anteriormente CCITT) en la serie de recomendaciones "V". Estas recomendaciones también determinan la velocidad de transmisión. Mejores momentos:
módem de teléfono
Interno
Externo
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 270
• V.32. Transmisión a 9600 bps. • V.32a. Transmisión a 14.400 bps. • V.34. Transmisión a 33.600 bps. Uso de técnicas de compresión de datos. • V.90. Transmita la descarga a 56,6 kbps y cargue hasta 33.600 bps. • V.92. Mejora sobre V.90 con compresión de datos y golpes. La velocidad
la carga está aumentando pero aún no coincide con la descarga.
También existen módems DSL (Digital Subscriber Line), que utilizan un rango de frecuencia por encima de la banda de voz (300 - 3.400 Hz) en las líneas telefónicas o por encima de los 80 kHz registrados en las líneas RDSI y permiten alcanzar velocidades muy superiores a las de un teléfono convencional. módem. También tienen otras propiedades, como la capacidad de establecer comunicación telefónica de voz mientras envían y reciben datos.
Estilo de modulación
Se utilizan diferentes tipos de configuración, son los siguientes:
• ASK, (Amplitude Shift Keying, Amplitude Modulation): En la modulación de amplitud (MA), la amplitud de la portadora se modula a los niveles correspondientes a los bits de entrada 1 o 0.
• FSK, (Modulación por desplazamiento de frecuencia): En la modulación por desplazamiento de frecuencia (FSK), la frecuencia de la portadora se modula sumando o restando una frecuencia de desplazamiento que representa los bits 1 o 0. Estos son los módems de modulación de baja velocidad comunes, donde los dos Los estados de la señal binaria se transmiten como dos frecuencias diferentes.
• PSK, (Phase Shift Keying, Phase Modulation): tipo de modulación donde la onda portadora transmitida se mueve un cierto número de grados en respuesta a la modulación de los datos. módems bifásicos p.Por ejemplo, utilizan desplazamientos de 180º para representar el bit 0.
Pero en el canal telefónico también existen perturbaciones a las que el módem tiene que hacer frente para poder transmitir la información. Estas perturbaciones se pueden registrar en: distorsiones, distorsiones y ecos. Sonidos aleatorios e impulsivos. Y finalmente la interferencia.
tecnología DSL
El acrónimo DSL de Digital Subscriber Line (Línea de Abonado Digital) es un término utilizado para referirse a nivel mundial a todas las tecnologías que brindan una conexión digital a través de la línea de abonado de la red telefónica local: ADSL, ADSL2, ADSL2+ SDSL, IDSL, HDSL, SHDSL, VDSL y VDSL2.
Lo que tienen en común es que utilizan el par trenzado de cables de cobre de las líneas telefónicas convencionales para transmitir datos a alta velocidad.
La diferencia entre ADSL y otros DSL es que las velocidades de descarga y subida no son simétricas, es decir, suelen permitir una velocidad de descarga superior a la de subida.
Tecnología ADSL:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 271
ADSL significa Línea de Suscriptor Digital Asimétrica ("Línea de Suscriptor Digital Asimétrica"). Consiste en una línea digital de alta velocidad, soportada por el par de cobre simétrico que lleva la línea telefónica convencional o línea de abonado.
Es una tecnología de banda ancha para acceder a Internet, que incluye la capacidad de transmitir más datos, lo que a su vez se traduce en una mayor velocidad. Esto se consigue utilizando una banda de frecuencia superior a la utilizada en las conversaciones telefónicas convencionales (300-3.400 Hz), por lo que para disponer de ADSL es necesario instalar un filtro (llamado divisor o splitter) que se encarga de separar el número de teléfono convencional que el que usaremos para conectarnos a ADSL.
Esta tecnología se llama asimétrica porque la velocidad de descarga (de Internet al usuario) y la velocidad de carga (viceversa) no coinciden. Por lo general, la velocidad de descarga es más rápida que la velocidad de carga.
En una línea ADSL se establecen tres canales de comunicación, que son el envío de datos, la recepción de datos y el servicio telefónico normal.
Actualmente, en países como España, se están implementando versiones mejoradas de esta tecnología como ADSL2 y ADSL2+, capaces de entregar TV y video de alta calidad al par telefónico, prometiendo una fuerte competencia entre los proveedores de telefonía y cable. ofertas integrales de voz, datos y TV.
Cuadro comparativo de velocidad ADSL
ADSL ADSL2 ADSL2+
Ancho de banda de recepción 0,5 MHz 1,1 MHz 2,2 MHz
La carga máxima es de 1 Mbps 1 Mbps 1,2 Mbps
Maximal se descargó a 8 Mbps 12 Mbps 24 Mbps
Distancia 2 millas 2.5 millas 2.5 millas
Tiempo de sincronización 10 a 30s 3s 3s
Corrección de errores No Sí Sí
Ventajas y desventajas de la tecnología ADSL
ADSL tiene muchas ventajas y también algunas desventajas en comparación con una conexión a Internet estándar de acceso telefónico.
Ventaja
• Le permite hablar por teléfono mientras navega por Internet, ya que, como se mencionó anteriormente, la voz y los datos operan en bandas separadas, lo que significa canales separados.
• Utiliza la infraestructura existente (la de la red telefónica básica). Esto es beneficioso, tanto para los operadores que no tienen que pagar grandes costes para implantar esta tecnología, como para los usuarios, ya que el coste y el tiempo
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 272
El tiempo para que el servicio esté disponible es más corto que si el operador tuviera que realizar obras para crear una nueva infraestructura.
• Los usuarios de ADSL tienen una conexión permanente a Internet, ya que no necesitan realizar esta conexión marcando o señalando a la red. Esto es posible porque existe una conexión punto a punto, por lo que no se comparte la línea existente entre el centro de conmutación y el usuario, lo que también garantiza un ancho de banda dedicado para cada usuario y aumenta la calidad del servicio. Esto se puede comparar con una arquitectura de red conmutada.
• Ofrece una velocidad de conexión mucho más rápida que el acceso telefónico a Internet. Este es el aspecto más interesante para los usuarios.
Desventajas
• No todas las líneas telefónicas pueden ofrecer este servicio, ya que los requisitos de calidad del par, tanto en términos de ruido como de atenuación por distancia al conmutador, son más estrictos que para el servicio telefónico básico. De hecho, el límite teórico para un servicio aceptable es igual a 5,5 km.
• Debido al cuidado que requieren estas líneas, el servicio no es barato en países con poca o mala infraestructura, sobre todo si lo comparamos con los precios que se aplican en otros países con infraestructura más avanzada.
• El router que debe tener la conexión, o en su defecto, el módem ADSL, es caro (en menor medida en el caso del módem).
• Requiere de línea telefónica para su funcionamiento, aunque se puede utilizar para realizar llamadas.
salida de módem
Un módem por cable es un tipo especial de módem diseñado para modular la señal de datos en una infraestructura de televisión por cable. El término Internet por cable (o simplemente cable) se refiere a la distribución de un servicio de conexión a Internet sobre esta infraestructura de telecomunicaciones.
El módem por cable no debe confundirse con sistemas LAN más antiguos como 10base2 o 10base5 que usaban cables coaxiales y especialmente 10broad36 que en realidad usa el mismo tipo de cable que los sistemas CATV.
Los módems por cable se utilizan principalmente para distribuir el acceso a Internet de banda ancha utilizando el ancho de banda no utilizado en la red de televisión por cable.
Los suscriptores en el mismo vecindario comparten el ancho de banda de una sola línea de cable coaxial. Por lo tanto, la velocidad de conexión puede variar dependiendo de cuántas personas estén usando el servicio al mismo tiempo.
La idea de una línea compartida a menudo se ve como una debilidad de una conexión a Internet por cable.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 273
Técnicamente, todas las redes, incluidos los servicios de DSL, comparten un ancho de banda fijo entre múltiples usuarios, pero debido a que las redes de cable tienden a cubrir áreas más grandes que los servicios de DSL, se necesita más cuidado. red.
Una debilidad más significativa de las redes de cable que utilizan una línea compartida es el riesgo de pérdida de privacidad, especialmente dada la disponibilidad de herramientas de piratería de módem de cable. Este problema se soluciona mediante el cifrado de datos y otras funciones de privacidad especificadas en el estándar de especificación de interfaz de servicio de datos por cable (DOCSIS) utilizado por la mayoría de los módems de cable.
Hay dos estándares:
DOCSIS y EURODOCSIS se utilizan principalmente en Europa.
Especificaciones DOCSIS
La entrada del módem es un cable RG6 con conector F.
Algunos fabricantes de módems de cable
• 3Com • Cisco Systems • Ericsson • Motorola • Nortel Networks • RCA • ARRIS • IP-NET • Webstar
tecnología wifi
Wi-Fi (o Wi-Fi, WiFi, Wifi, wifi) es un conjunto de estándares de redes inalámbricas basado en la especificación IEEE 802.11. Creado para su uso en LAN inalámbricas, también se usa ampliamente hoy en día para el acceso a Internet.
Wi-Fi es una marca comercial de Wi-Fi Alliance (anteriormente Wireless Ethernet Compatibility Alliance), la organización de la industria que prueba y certifica que los equipos cumplen con los estándares IEEE 802.11x.
Historia
El principal problema que la normalización pretende resolver es la compatibilidad. Sin embargo, existen diferentes estándares que definen diferentes tipos de redes inalámbricas. Esta variedad provoca confusión en el mercado y falta de coordinación entre los productores. Para solucionar este problema, los principales proveedores inalámbricos (3com, Airones, Intersil, Lucent Technologies, Nokia y Symbol Technologies) crearon una asociación conocida como WECA (Wireless Ethernet Compatibility Alliance) en 1999. El objetivo de esta asociación era crear una
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 274
señal que facilitaría la promoción de la tecnología inalámbrica y garantizaría la compatibilidad de los equipos.
En abril de 2000, WECA certificó así la interoperabilidad de los equipos según el estándar IEEE 802.11b con la etiqueta Wi-Fi (Wireless Fidelity). Esto quiere decir que el usuario tiene la garantía de que todos los equipos que tengan el sello Wi-Fi pueden funcionar juntos sin problemas, independientemente del fabricante de cada uno de ellos.
En 2002, había casi 150 miembros de WECA. Dado que el estándar 802.11b ofrece una velocidad de transferencia máxima de 11 Mbps y ya existen estándares que permiten velocidades superiores, WECA no se ha querido quedar atrás. Por ello, WECA ha anunciado que también comenzará a certificar equipos IEEE 802.11a en la banda de 5 GHz a través de la etiqueta Wi-Fi5.
El estándar IEEE.802.11 se diseñó para reemplazar las capas física y MAC del estándar 802.3 (Ethernet). Esto significa que la única diferencia entre una red Wi-Fi y una red Ethernet es cómo las computadoras y terminales generalmente acceden a la red. el resto son iguales. Por lo tanto, una LAN inalámbrica 802.11 es totalmente compatible con todos los servicios en LAN cableadas 802.3 (Ethernet).
normalización
Hay tres tipos de Wi-Fi, cada uno basado en un estándar IEEE 802.11 aprobado. Se está desarrollando un cuarto estándar, 802.11n, y se espera su aprobación final en la segunda mitad de 2007.
• Los estándares IEEE 802.11by IEEE 802.11g tienen aceptación internacional porque la banda de 2,4 GHz está disponible casi universalmente con velocidades de hasta 11 Mbps y 54 Mbps respectivamente. También hay un primer borrador del estándar IEEE 802.11n, que funciona a 2,4 GHz a 108 Mbps. metáfora teórica. Actualmente existen algunos dispositivos que permiten el uso de esta tecnología, llamados Pre-N, pero no se sabe si serán compatibles, ya que el estándar no ha sido completamente revisado y aprobado.
• Actualmente también se está considerando el estándar IEEE 802.11a, conocido como WIFI 5, que opera en la banda de 5 GHz y tiene una operación de canal relativamente clara. La banda de 5GHz se activó recientemente y además ninguna otra tecnología (Bluetooth, microondas, etc.) la utiliza, por lo que hay muy poca interferencia…
La tecnología inalámbrica Bluetooth también opera en la frecuencia de 2,4 GHz, por lo que puede interferir con Wi-Fi, pero en la versión 1.2 y posteriores del estándar Bluetooth, se han actualizado sus especificaciones para que no haya interferencia al usar ambas tecnologías al mismo tiempo. .
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 275
tarjeta de sonido
Una tarjeta de sonido o tarjeta de sonido es una tarjeta de expansión informática que permite la entrada y salida de sonido bajo el control de un programa informático. El uso típico de las tarjetas de sonido es proporcionar aplicaciones multimedia con el componente de audio. Estas aplicaciones multimedia incluyen composición y edición de video o audio, presentaciones multimedia y entretenimiento (videojuegos). Algunas computadoras ya tienen la tarjeta incorporada, mientras que otras requieren tarjetas de expansión.
Características generales
Una tarjeta de sonido típica contiene un chip de audio que generalmente contiene el convertidor de digital a analógico, que cumple la importante función de "traducir" formas de onda generadas o grabadas digitalmente en una señal analógica y viceversa. Esta señal se envía a un jack (para auriculares) donde se puede conectar cualquier otro dispositivo como un amplificador, altavoz, etc. Para poder grabar y reproducir audio simultáneamente con su tarjeta de sonido, debe ser "compatible con dúplex completo" para que los dos convertidores funcionen de forma independiente.
Los diseños más avanzados tienen más de un chip de sonido y tienen la capacidad de separar los sonidos de síntesis (generalmente para la creación de música y efectos especiales en tiempo real utilizando cierta información y temporización del microprocesador y quizás la compatibilidad con MIDI) y los sonidos digitales para la reproducción.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 276
Esto último se logra con DAC (Digital-Analog-Converter o Digital-Analog Converter), que tienen la capacidad de reproducir múltiples muestras digitales en diferentes tonos e incluso aplicar efectos en tiempo real como filtrado o distorsión. La reproducción digital multicanal a veces se puede usar para componer música si se combina con un banco de instrumentos, que suele ser una pequeña cantidad de ROM o memoria flash que contiene datos sobre los sonidos de diferentes instrumentos musicales. Otra forma de componer música en las computadoras es a través de "codificadores de audio", que son programas desarrollados para esta función, pero que consumen mucho tiempo del microprocesador.
La mayoría de las tarjetas de sonido también tienen una entrada o conector "Line In" a través del cual cualquier tipo de señal de audio de otro dispositivo, como micrófonos, caseteras, etc., puede enviarse al disco duro de la computadora.
Otro conector externo que tiene una tarjeta de sonido normal es el conector del micrófono. Este conector está diseñado para recibir una señal de dispositivos con un voltaje más bajo que el utilizado en el conector de entrada "Line-In".
conexiones
Casi todas las tarjetas de sonido se han adaptado al estándar PC99 de Microsoft, que consiste en asignar un color a cada conector externo, así:
Modo de color
Entrada de micrófono analógico rosa.
Entrada analógica azul "Line-In".
Verde Salida analógica para señal estéreo principal (altavoces frontales).
Salida analógica negra para altavoces traseros.
Salida analógica plateada para altavoces laterales.
Salida digital naranja SPDIF (a veces se usa como salida analógica para altavoces centrales).
Los conectores más utilizados para las tarjetas de sonido de consumo son los miniconectores, ya que son los más baratos. Los conectores RCA logran una calidad superior ya que utilizan dos canales independientes, rojo y blanco, uno para el canal derecho y otro para el izquierdo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 277
A nivel profesional se utilizan entradas y salidas S/PDIF, también llamadas salidas ópticas digitales, que trabajan directamente con el audio digital, eliminando la pérdida de calidad durante las conversiones.
Para trabajar con dispositivos MIDI, necesita entrada y salida MIDI.
muestreo de audio
Para producir un sonido, el altavoz necesita un lugar para golpear, lo que crea, dependiendo de dónde golpea, una vibración diferente del aire que capta el oído humano. Para determinar esta posición, se requiere codificación. Por lo tanto, cuanto mayor sea el número de bits, mayor será el número de posiciones diferentes que se pueden representar.
Por ejemplo, si la muestra de audio está codificada con 8 bits, habrá 256 posiciones diferentes para apuntar. Pero con 16 bits se lograrán 65536 posiciones. Por lo general, no necesita más de 16 bits a menos que desee trabajar con un margen de error que evite que la muestra cambie significativamente.
tasa de muestreo
Las tarjetas de sonido a nivel de usuario funcionan a una frecuencia de 44,1 kHz, ya que el oído humano reconoce unos 44.000 sonidos por segundo. Las tarjetas de sonido profesionales funcionan a partir de 48 kHz. hasta 100 Khz., lo que te permite conseguir una mayor calidad, para realizar cambios posteriormente sin alterar el sonido resultante.
Canales de audio y polifonía
Otra característica importante de una tarjeta de sonido es su versatilidad. Es el número de voces o sonidos diferentes que se pueden reproducir de forma simultánea e independiente. El número de canales hace referencia a las diferentes salidas eléctricas, que corresponden a la configuración de los altavoces, como 2.0 (estéreo), 2.1 (estéreo y subwoofer), 5.1, etc. Actualmente se utilizan tarjetas de sonido envolvente, en su mayoría Dolby Digital 8.1 o posterior. El número antes del punto indica el número de canales y altavoces satélite, mientras que el número después del punto indica el número de subwoofers. A veces, los términos voces y canales se usan indistintamente para indicar el grado de polifonía en lugar de la configuración de los altavoces.
La historia de las tarjetas de sonido para la arquitectura de PC de IBM
Las tarjetas de sonido eran desconocidas en las computadoras basadas en PC de IBM hasta 1988, cuando el altavoz interno de la computadora era el único medio para producir sonido. El altavoz solo producía ondas cuadradas que producían sonidos descritos como "pitidos". Varias empresas, en particular Access Software, han desarrollado técnicas para reproducir audio digital en el altavoz de la computadora. El audio resultante, aunque funcional, estaba distorsionado, tenía un volumen bajo y, a menudo, requería recursos disponibles para otros procesos al reproducir los sonidos. Otros modelos de computadoras domésticas de la década de 1980 incluían soporte de hardware para reproducción de audio digital y/o composición musical, lo que dejó a la PC de IBM en desventaja cuando surgieron aplicaciones multimedia como la composición musical o los juegos.
Es importante tener en cuenta que el diseño original y el enfoque de marketing de las tarjetas de sonido para la plataforma IMB PC no estaban destinados a los juegos, sino a aplicaciones de audio específicas, como la composición musical o
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 278
reconocimiento de voz. Esto hizo que Sierra y otras empresas cambiaran su enfoque de las cartas a los videojuegos en 1988.
interfaz midi
MIDI es un acrónimo de Interfaz Digital de Instrumentos Musicales. Es un protocolo de la industria que permite que computadoras, sintetizadores, secuenciadores, controladores y otros dispositivos de música electrónica se comuniquen y compartan información sobre la producción de sonido.
Esta información define diferentes tipos de datos, como números que pueden corresponder a notas específicas, números de patch o valores de controlador. Gracias a esta simplicidad, los datos pueden interpretarse de muchas maneras y utilizarse para otros fines además de la música. El protocolo incluye especificaciones adicionales de hardware y software.
señales ROJAS
Una tarjeta de interfaz de red, o NIC (Network Interface Controller, controlador de interfaz de red en español), es una tarjeta de expansión que permite que una computadora o impresora DTE (Data Terminal Equipment) acceda a una red y comparta recursos entre dos o más computadoras (disco duro , cdrom, etc.). Existen diferentes tipos de adaptadores según el tipo de cableado o arquitectura utilizada en la red (coaxial delgado, coaxial grueso, etc.), pero actualmente el más común es el tipo Ethernet, que utiliza una interfaz o enchufe RJ45.
Las tarjetas de red Ethernet pueden variar en la velocidad de transmisión, generalmente 10 Mbps o 10/100 Mbps. pero la categoría 6, 6e y 7, que operan a frecuencias más altas. Otro tipo de adaptador que prevalecía hasta hace poco era el que usaba un conector BNC. Las NIC también son tarjetas inalámbricas o inalámbricas que vienen en diferentes variedades según el estándar al que se adhieren. suelen ser 802.11a, 802.11b y 802.11g. Los más populares son 802.11b que transmite a 11 Mbps con una distancia teórica de 100 metros y 802.11g que transmite a 54 Mbps.
Cada adaptador de red tiene un número de identificación hexadecimal único de 48 bits llamado MAC (que no debe confundirse con Apple Macintosh). Estas direcciones de hardware únicas son administradas por el Instituto de Ingenieros Electrónicos y Eléctricos (IEEE). Los primeros tres octetos del número MAC se conocen como OUI, identifican proveedores específicos y están definidos por el IEEE.
Un solo chip en la tarjeta de red también se denomina NIC, este chip se encarga de actuar como una interfaz Ethernet entre el medio físico (por ejemplo, un cable coaxial) y el equipo (por ejemplo, una computadora).
Es un chip utilizado en computadoras o dispositivos periféricos como tarjetas de red, impresoras de red o sistemas integrados para conectar dos o más dispositivos a través de
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 279
algún medio, ya sea inalámbrico (over the air), cable UTP, cable coaxial, fibra óptica, etc.
Tipo de conección
Si está instalando una red con cables de par trenzado, use una NIC con un conector RJ45.
Ranuras ISA y PCI Hay dos tipos comunes de ranuras NIC para PC: · Las ranuras ISA (arquitectura estándar de la industria) tienen aproximadamente 14 cm de largo. · La ranura de interconexión de componentes periféricos (PCI) se utiliza en todas las computadoras de escritorio Pentium. Las ranuras PCI funcionan mejor que las ranuras ISA. Las ranuras PCI miden aproximadamente 9 cm de largo. Consulte la guía del usuario de su computadora para averiguar qué tipo de conexión está disponible en su computadora. NIC dedicadas En algunos casos, es posible que necesite usar NIC dedicadas. Por ejemplo, si su computadora es una computadora portátil, necesita una tarjeta PCMCIA. Al elegir una tarjeta PCMCIA, tenga en cuenta lo siguiente: · La velocidad del concentrador, conmutador o servidor de impresión: Ethernet (10 Mbps) o Fast Ethernet (100 Mbps). · El tipo de conexión que necesita - RJ-45 a par trenzado o BNC a coaxial. Si tiene un puerto USB, considere usar una interfaz de red USB.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 280
IEEE 802.11 (para tarjetas de red inalámbrica)
El protocolo IEEE 802.11 o WI-FI es un estándar de protocolo de comunicación IEEE que define el uso de las dos capas más bajas de la arquitectura OSI (capas físicas y capas de enlace de datos) y define sus estándares para operar en una WLAN. En general, los protocolos de bifurcación 802.x definen la tecnología LAN.
La familia 802.11 actualmente incluye seis técnicas de transmisión de modulación que utilizan los mismos protocolos. El estándar original de este protocolo data de 1997, era IEEE 802.11, tenía velocidades de 1 a 2 Mbps y operaba en la banda de frecuencia de 2,4 GHz. Actualmente, ningún producto se fabrica con este estándar. El término IEEE 802.11 también se usa para referirse a este protocolo, que ahora se conoce como "heredado 802.11". La siguiente modificación apareció en 1999 y se designa como IEEE 802.11b, esta especificación tenía velocidades de 5 a 11 Mbps, también operaba en la frecuencia de 2.4 GHz. También se hizo una especificación en una frecuencia de 5 Ghz que llegaba a los 54 Mbps, era 802.11a y era incompatible con los productos b y por cuestiones técnicas no se desarrolló casi ningún producto. Posteriormente se incorporó un estándar con esta velocidad y compatible con b que se llamaría 802.11g. Actualmente, la mayoría de los productos son de especificaciones B y G. El siguiente paso es con el estándar 802.11n, que eleva el límite teórico a 600 Mbps. Actualmente existen varios productos que cumplen un primer borrador del estándar N con un máximo de 300 Mbps (80-100 estable). La seguridad ha sido parte del protocolo desde el principio y se mejoró en la revisión 802.11i. Otros patrones de esta familia (c–f, h–j, n) son mejoras y extensiones de servicios o correcciones a especificaciones anteriores. El primer estándar ampliamente aceptado en esta familia fue 802.11b. A partir de 2005, la mayoría de los productos en el mercado siguen el estándar 802.11g con compatibilidad para 802.11b.
Los estándares 802.11b y 802.11g utilizan la banda de 2,4 gigahercios (Ghz), que no requiere licencias. El estándar 802.11a utiliza la banda de 5 GHz. El estándar 802.11n utilizará las bandas de 2,4 GHz y 5 GHz. Las redes que operan bajo los estándares 802.11b y 802.11g pueden experimentar interferencias de hornos de microondas, teléfonos, equipos inalámbricos y otros dispositivos que utilizan la misma banda de 2,4 GHz.
Equipos de lectura (CD-ROM, CD-RW, DVD y DVD-R W)
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 281
unidad óptica
1. INTRODUCCIÓN
La unidad de CD-ROM ha dejado de ser un accesorio opcional y se ha convertido en una parte integral de nuestro ordenador, sin la cual no seríamos capaces de instalar la mayor parte del software disponible en la actualidad, por no hablar de todos los programas multimedia y juegos.
Hay varias formas de almacenar información. Los discos duros y los disquetes forman lo que se denomina medios de almacenamiento magnéticos y hasta hace poco eran la única forma de almacenar información. A finales de los años ochenta, los CD o CD comenzaron a popularizarse y representan una alternativa a los medios magnéticos tradicionales, este nuevo tipo de almacenamiento se conoce como óptico, sus principales exponentes son el CD-ROM y en los últimos años el DVD'one.
2.- DESARROLLO HISTÓRICO
A principios de la década de 1980 aparecieron los CD de audio y fue entonces cuando comenzó la transición de los medios magnéticos a los ópticos, aunque todavía se mantiene el primero.
El nacimiento del CD ocurrió unos años antes.
En 1968, durante la "Convención de Discos de Audio Digital" en Tokio, 35 fabricantes se unieron para unificar los criterios. Allí, Philips decidió que el proyecto de CD requería un estándar internacional, como sucedía con su antecesor, el LP o disco de larga duración. La discográfica Poligram (filial de Philips) fue la encargada de desarrollar el material de los discos y eligió el policarbonato. En general, la norma ha definido:
• Diámetro del disco: 120 mm. • Apertura de la cintura: 15 mm. • Material: Policarbonato. • Grosor: 1,2 mm. • Láser para lectura: Arseniuro de Galio. • Grabado: en forma de “hoyos o marcas”. • Duración: 74 minutos.
En marzo de 1979, este prototipo se probó con éxito en Europa y Japón. adoptado por la alianza entre Philips y Sony.
El uso potencial de la tecnología de discos compactos como almacenamiento masivo de datos de bajo costo condujo a la especificación de un estándar para la construcción del CD-ROM de solo lectura en 1983.
El CD-ROM ha logrado un éxito similar al de las grabaciones digitales, con más de 130 millones de reproductores vendidos y decenas de miles de títulos disponibles. El estándar se ha establecido para cualquiera de las computadoras que se venden actualmente en el mercado actual. Básicamente, este formato es la producción física del CD de audio, excepto que en lugar de grabar la información para la interpretación de los reproductores de audio, se organiza de la misma manera que un disco duro, pero con un tamaño de 640 Mb. La evolución de Al mismo tiempo produjo CD R y CD RW, tecnología que nos permite grabar y borrar nuestros CD para usarlos como respaldo de datos, música o multimedia.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 282
3.- REGLAS:
Las distintas especificaciones de los distintos tipos de CDS se agrupan en los denominados rojos, amarillos, etc. libros. El color es solo una broma, cada tipo solo implica un conjunto de especificaciones específicas. Los CD de audio, los discos de música popular, aparecieron por primera vez a principios de la década de 1980. Sus especificaciones se registraron en el Libro Rojo y son el formato más popular en la actualidad.
En 1984, se introdujo el "Libro amarillo" que contiene las especificaciones de los populares CD-ROM y contiene dos opciones. Modo 1 que se usa solo en caso de grabaciones de datos y Modo 2 que se usa para comprimir datos, imágenes, audio, video y almacenarlos en el mismo CD.
El "Libro Verde" es otra especificación que establece el estándar para los CD interactivos o CD-I. Los Photo CD son un ejemplo de este tipo de CD, para los cuales se vendían algunos reproductores en su momento, que se conectaban a la televisión y permitían ver fotos digitalizadas y realizar diversos efectos como zoom y más.
A partir de ese momento surge la necesidad de disponer de especificaciones para poder comercializar los primeros grabadores de CD, demanda del mercado que las empresas del sector empezaron a atender a principios de los 90. Varios: discos magnetoópticos, CD-MO, que fueron los primeros en utilizarse y popularizarse, pero se diferencian de los discos grabables actuales en que utilizan un soporte magnético. Otro caso son los discos grabables o discos CD-R, que son discos que, gracias a un dispositivo de grabación, pueden almacenar hasta 650 Mbytes de información, aunque no se pueden borrar y reescribir. Este es el tercer caso contemplado en el "Libro Naranja": los CD regrabables, o CD-RW, que permiten escribir y borrar datos hasta 1.000 veces. El problema con el último tipo de disco es que muchas unidades de CD-ROM antiguas o muchos reproductores de CD de música no pueden leerlo.
Luego vino el "Libro Blanco", que tiene en cuenta las especificaciones de lo que se denomina Video-CD, un tipo de disco que puede almacenar hasta 70 minutos de video comprimido. Estos tipos de CDS son populares en Asia. Su existencia ya está condenada con la llegada de los discos DVD.
El libro de especificaciones más reciente es el "Libro azul", que se publicó para habilitar CD-plus, también conocido como CD-Extra. En estos discos hay varias pistas de audio, grabadas según las especificaciones del "Libro Rojo", así como una pista de datos, como un CD-ROM.
4.- CARACTERÍSTICAS
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 283
Los reproductores de CD ofrecen una respuesta de frecuencia más suave, menos distorsión, niveles de ruido casi inaudibles y una vida útil mucho más larga. Sin entrar en contacto físico directo con ningún mecanismo (los códigos digitales en la superficie del disco son leídos por un rayo láser), estos CD pueden durar indefinidamente si se manejan con cuidado.
4.1.- Proceso de producción
Las aplicaciones en CD-ROM se distribuyen en CD de 12 cm. de diámetro, con la información grabada en un lado. La producción de estos discos requiere una sala "blanca", libre de partículas de polvo. Se aplica una capa de material sensible a la luz de alta resolución a un disco de grado óptico finamente pulido. En dicha capa es posible grabar la información gracias a un rayo láser. Una vez que se completa la transferencia, los datos que contiene permanecen inactivos. El proceso es muy similar al revelado de una fotografía. Según las zonas alcanzadas por el láser, la capa de material fotosensible se endurece o se disuelve cuando se aplican determinados baños. Cuando se completen los distintos baños, se dispondrá de una primera copia del disco que permitirá sellar el resto. Tras otra serie de procesos ópticos y electroquímicos, se obtiene una matriz o disco "maestro", que permite estampar en el plástico miles de copias del CD-ROM.
El maestro está grabado con un láser de alta potencia (no como los que se usan para la lectura inversa), que 'imprime' los unos y ceros formados por una serie de pequeños agujeros. Este prototipo se utiliza luego para producir las impresiones. Cuando las copias se "imprimen" correctamente con los orificios en los lugares correctos, se recubren con una fina capa de aluminio que les da el aspecto brillante habitual de los CD y sirve para reflejar la luz láser del cabezal de lectura. Finalmente, se aplica una nueva capa de plástico.
4.2.- Estructura
Se componen de un disco de policarbonato de 120 mm de diámetro y 1,2 mm de espesor. Pesa unos 14 gramos. El componente principal de CD es un tipo de plástico llamado policarbonato, un petroquímico que se inyecta en moldes.
Estos modos contienen las irregularidades superficiales (nervaduras y ranuras) que representan los datos utilizados por el policarbonato viscoso del estampado. El disco de plástico resultante se llama sustrato de plástico.
El sustrato de plástico está cubierto con una capa muy delgada de aluminio reflectante que captura con precisión la forma de las ranuras y crestas. Para evitar que el aluminio se marque y raye, lo que borraría los datos que contiene, se añade un barniz protector a través del cual el láser puede leer perfectamente las ranuras. Finalmente, el CD se imprime en lienzo.
En un CD-ROM, los sectores están en una sola pista en espiral. Para un tiempo de acceso rápido, los sectores que contienen los datos de cada archivo deben ser contiguos. Todos los sectores tienen el mismo tamaño y no dependen de su ubicación en el disco. El disco gira a una velocidad variable, más rápido para los sectores del interior del disco y más lento para los sectores del exterior.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 284
pozos y tierras
Los datos se almacenan en una pieza de material de policarbonato. La pista comienza en el centro del disco y termina en el radio exterior del disco, formando una espiral larga y delgada. En esta bobina hay pequeños surcos llamados pozos, que están grabados en el disco maestro y que luego se imprimirán en la superficie del disco de policarbonato durante la etapa de reproducción. El área lisa entre 2 cavidades se llama tierra. Los pozos y el suelo representan los datos almacenados en el disco. La composición del disco incluye un material reflectante (a base de aluminio) que rodea los hoyos y el suelo. La forma en que se refleja la luz depende de dónde incide el rayo láser. Un pozo dispersará y dispersará la luz láser que rodea una señal débil. Un suelo no dispersa la luz y la luz reflejada se interpreta como una señal fuerte. Cierto número de pozos y áreas de tierra forman cadenas, que se denominan sectores.
4.3.- Proceso de lectura
� Un haz de luz coherente (láser) se emite desde un diodo infrarrojo a un espejo que forma parte del cabezal de lectura, que se mueve linealmente por la superficie del disco.
La luz reflejada por el espejo pasa a través de una lente y se enfoca en un punto en la superficie del CD.
� Esta luz incidente es reflejada por la capa de aluminio. La cantidad de luz reflejada depende de la superficie en la que incide el haz. Entonces dijimos que una serie de agujeros están impresos en la superficie de datos del disco, si el haz de luz golpea un agujero, se dispersa y la intensidad reflejada es mucho menor, así que solo necesitamos hacer que los agujeros coincidan con los ceros y ceros. sin agujeros, y tendremos una representación binaria.
GRACIA =1 HOYO O CAMPO =0
� La energía luminosa del fotodetector se convierte en energía eléctrica y mediante un simple valor umbral nuestro detector determinará si el punto indicado por el puntero corresponde a un cero o a un uno.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 285
La presencia de una cabeza de lectura óptica y no magnética evita muchos problemas, ya que no hay contacto directo entre esta y la superficie del disco, pero aún así hay algunas precauciones que se deben tener en cuenta, como limpiar la superficie del polvo acumulado. la superficie de las lentes lo que puede terminar incidiendo en una lectura incorrecta con el lector.
4.4.- Tipo de rotación
El disco puede girar de manera diferente según el motor de accionamiento que lo hace girar. A partir de esto tenemos dos tipos diferentes de rotación.
CAV (Velocidad angular constante) El disco gira a una velocidad constante independientemente del área del disco a la que se acceda. Siempre toma la misma cantidad de tiempo para que el disco haga un CÍRCULO COMPLETO de 360 grados, sin importar qué tan cerca o qué tan lejos esté la cabeza del centro del CD-ROM.
CD-ROM CLV (Constant Linear Velocity), heredado de los CD de audio estándar, ajusta la velocidad del motor para que su velocidad lineal sea siempre constante. Entonces, cuando la cabeza de lectura está cerca del borde, el motor gira más lentamente que cuando está cerca del centro. Este hecho dificulta mucho la construcción del lector, pero garantiza que la velocidad de entrada de datos a la computadora sea constante.
4.5.-Velocidad de transferencia
Los primeros CD-ROM funcionaban a la misma velocidad que los CD de audio estándar: de 210 a 539 rpm, según la posición del cabezal, a la que se alcanzaba una velocidad de transferencia de 150 KB/s, una velocidad conocida como audio con calidad de CD (1X). Pero en las aplicaciones de almacenamiento de datos interesa la tasa de transferencia más alta posible, para lo cual es suficiente aumentar la velocidad de rotación del disco. Así aparecen los CD-ROM 2X, 4X, .... 24X, ?X que simplemente se duplican, cuadriplican, etc. la velocidad de transferencia Este es un hecho que puede llevar a confusión.
La mayoría de los dispositivos más lentos que 12X usan CLV (VELOCIDAD DE PRENSA variable) y los más nuevos y más rápidos usan la opción CAV (VELOCIDAD DE PRENSA CONSTANTE). Cuando se usa CAV, la velocidad de transferencia de datos varía según la ubicación de los datos en el disco, mientras que la velocidad angular permanece constante.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 286
Un aspecto importante cuando hablamos de CD-ROMs con una velocidad igual o superior a 12X es a qué nos referimos realmente cuando hablamos de velocidad 12X, porque en este caso no tenemos una velocidad de transferencia de 12 veces la referencia, y no es ni siquiera una velocidad ligeramente constante. Cuando decimos que un CD-ROM CAV es 12X, nos referimos a que la velocidad de giro es 12 veces mayor en el borde del CD. Por lo tanto, un CD-ROM 24X es 24 veces más rápido en el borde, pero un 60 % más lento en el medio de su máxima velocidad.
4.6.-Tiempo de acceso, retardo y tiempo de búsqueda
tiempo de acceso
Para describir la calidad de un CD-ROM, este es probablemente uno de los parámetros más interesantes. Se considera tiempo de acceso el tiempo que tarda el dispositivo desde el inicio del proceso de lectura hasta el inicio de la lectura de datos. Este parámetro viene dado por la latencia, el tiempo de búsqueda y el tiempo de cambio de velocidad (en unidades CLV).
Por supuesto, este parámetro depende directamente de la velocidad de la unidad de CD-ROM, ya que sus componentes también dependen de ella. La razón por la que los tiempos de acceso son mucho más altos en los CD-ROM que en los discos duros se debe a su construcción. La disposición cilíndrica de los discos duros reduce significativamente los tiempos de búsqueda. Por otra parte, los CD-ROM no se diseñaron originalmente para el acceso aleatorio, sino para el acceso secuencial a los CD de audio. Los datos están en espiral en la superficie del disco y, por lo tanto, el tiempo de búsqueda es mucho más largo.
tiempo de reacción
Una vez que el cabezal de lectura está en la posición correcta para realizar una lectura, a medida que el disco gira, debe esperar a que pase el punto correcto para iniciar la lectura. El tiempo promedio que tarda la información en ir desde donde espera el cabezal de lectura cuando está en la posición correcta se conoce como latencia.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 287
Este parámetro no suele especificarse para un CD-ROM, ya que forma parte del tiempo de acceso, que en realidad es un parámetro que nos interesa.
tiempo de busqueda
El tiempo de búsqueda se refiere al tiempo que tarda el cabezal de lectura en moverse a la ubicación en el disco donde residen los datos. Tiene sentido hablar de este tamaño como una media, ya que no es lo mismo llegar a un punto cercano al borde que a uno cercano al centro. Este tamaño es parte del tiempo de acceso, que es un dato mucho más importante.
tiempo de cambio de marcha
En los CD-ROM de velocidad lineal constante (CLV), la velocidad de rotación del motor dependerá de la posición del cabezal de lectura en el disco, cuanto más rápido esté más cerca del centro. Esto incluye un tiempo de ajuste para que ese motor obtenga la velocidad adecuada cuando sabe dónde están los datos.
4.7.- Oculto
La mayoría de los CD-ROM suelen contener una pequeña caché cuya misión es reducir el número de accesos al disco físico. Cuando se accede a datos en disco, estos se almacenan en caché, por lo que si volvemos a acceder a ellos, se eliminarán directamente de esa memoria, evitando un acceso lento al disco. Cuanto mayor sea la memoria caché, más rápido será nuestro equipo, pero no hay mucha diferencia de velocidad entre distintos equipos por este motivo, ya que esta memoria solo nos impide acceder a los datos más recientes, que son los que se almacenan en esta memoria.
4.8.- Conexión: Tipo de bus
Este es otro dato a considerar en un CD-ROM. Hay dos tipos diferentes con sus ventajas y desventajas.
ATAPI (interfaz de paquetes adjuntos):
Este protocolo se desarrolló para aprovechar los controladores IDE de uso común para discos duros. Su función es que las unidades de CD-ROM y cintas puedan funcionar con controladores tradicionales, aunque no sean estrictamente IDE. Los comandos IDE estándar (utilizados en discos duros) no tienen sentido en una unidad de CD-ROM, por lo que se tuvieron que crear comandos intermedios para que actuaran como una "traducción" de un sistema a otro.
Su principal desventaja es que cuando se accede al CD-ROM, el procesador no suele estar disponible para otras tareas.
SCSI (interfaz de sistema de computadora pequeña):
SCSI es un bus que se puede usar para varios dispositivos (no solo CD-ROM) y se usa en dispositivos de gama alta. La principal diferencia con el tipo anterior (ATAPI) es el uso del procesador. En este caso, SCSI ofrece velocidades de transferencia de datos de hasta 40 MB/s, mucho más rápido que los puertos serie o paralelo estándar. La principal desventaja es el alto precio de este tipo de controlador.
Imagen de bajo aumento (x32) de un CD que muestra un borde en la banda de datos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 288
4.9.- Organización de la información
Al solicitar datos en un CD, ya sea de escritura o de solo lectura, se utilizan diferentes formatos lógicos.
Estas formas tienen su correspondencia con las formas de los discos naturales, aunque con matices.
Primero tenemos el formato Audio CD, que fue el primero en aparecer y se usa en compresores de música. El segundo formato que se muestra es el que se utiliza en los CD-ROM e incluye un sistema de corrección de errores causados por defectos del disco como huellas dactilares, rayas, polvo, etc. generalizado, ya que los datos grabados en CD en este estándar pueden ser leídos por una amplia variedad de sistemas operativos, como MS-DOS, Windows 95 y 98, UNIX, MacOS, etc.
estructura de carpetas
Estas plantillas tienen varios niveles de privacidad cuando se trata de permitir nombres y ubicaciones de archivos. ISO 9660 / ALTA SIERRA NIVEL 1 Permite nombres de archivo de 8 caracteres más 3 extensiones de archivo en formato DOS. Los caracteres permitidos son letras mayúsculas de la A a la Z, "_" y números del 0 al 9. Maneja funciones básicas de DOS. DOS NIVEL 2 & 3 Permite nombres de archivo de 8 caracteres más 3 extensiones en formato DOS. Sin límites de caracteres.
JOLIETA. Windows 95, 98 y NT 4 usan la especificación Joliet, que almacena un mapa y un nombre de archivo largo en el disco, lo cual es necesario para usar en MS-DOS. Permite nombres de hasta 64 caracteres con soporte UNICODE. especificaciones ROMEO
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 289
de Microsoft, Romeo, que contiene solo grandes nombres. Rock Ridge utilizado en UNIX. Apple ISO Utilizado en computadoras Apple Macintosh.
Estructura lógica:
La información dentro del CD está estructurada de la misma manera que un disco duro o un disquete, excepto por los formatos especiales (CD-A / CD-I / Photo-CD, etc.) CD, no un disco normal lleno de archivos archivados. imágenes en este formato. Este disco no funcionará en ninguna unidad de CD-I. Los True Photo CD deben contener datos específicos, más allá de las propias fotos, para indicar a los lectores cómo manejar las imágenes. De manera similar, un CD-A puede insertarse en un reproductor de audio y reproducirse directamente. O se usa en una computadora previsualizando varias pistas y activando la reproducción.
Finalmente, mencione el formato de CD de modo mixto, que almacena tanto audio como datos. Este tipo de discos se pueden utilizar tanto en reproductores de audio como en ordenadores.
4.10.- Equipamiento y opciones básicas de una unidad de CD-ROM
Los CD-ROM ocupan el espacio de una unidad de 5,25 pulgadas, estas ranuras son estándar y solo hay que tener una libre para insertar nuestro dispositivo en el ordenador. Los dispositivos que ofrece el CD-ROM son bastante estándar y casi siempre encontramos un panel que nos ofrece:
1. Toma de salida de auriculares
2. lea la luz indicadora
3. conectar el volumen de salida
4. reproducción de audio
5. pasar a la siguiente pista de audio
6. detener la reproducción
7. Abra la bandeja de CD.
GRABADORES
1.- MÉTODOS DE REGISTRO
1.1.- Estampación Grabado
El grabado de sellos se utiliza cuando una misma muestra debe ser duplicada miles de veces.-
Este método de grabación, el estampado de CDS, comienza con la creación de una matriz o máster para lograr miles de copias.
El primer paso es escribir datos de usuario en un disco maestro. Los picos (puntos altos) distinguen los datos de los valles (áreas planas). Cuando un láser golpea el valle, el haz de luz se refleja. cuando se proyecta sobre un vértice, la luz se difunde. Al igual que los viejos discos de vinilo, las pistas de grabación de un CD-ROM están dispuestas en espiral.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 290
La producción de la matriz de estampado se realiza sobre un disco de vidrio pulido, se aplica una capa de material fotosensible, donde se registra la información mediante un rayo láser. Después del revelado fotográfico de este archivo, el maestro se recubre y la superficie se rellena con níquel. El troquel positivo intermedio se separa y se convierte en el troquel de estampación final con el que se realizan las copias finales.-
El siguiente paso es copiar el disco maestro (master) utilizando la matriz de estampado. Estas son losas que tienen pequeños picos donde se tallarán los valles. Las ruedas crean las réplicas moldeando por inyección resina de policarbonato.
Finalmente, se aplica una capa de aluminio reflectante a cada disco de policarbonato junto con una capa de barniz.
La ventaja de este proceso es que pueden producir en masa muchas copias de un disco maestro a bajo costo.
1.2.- Registro de sesiones múltiples
La técnica del grabado existe como alternativa al estampado. Las unidades de CD-ROM de escritorio simulan estas características físicas en la superficie del disco utilizando métodos ópticos en lugar de físicos. El estándar CD-R (definido en el Libro Naranja) es esencialmente un CD-ROM con capas de oro que, en lugar de aluminio reflectante, está recubierto con tinta. Esta pintura es transparente y permite que el oro refleje la luz del láser (como un valle). La reflectividad de un punto del disco se reduce quemando la capa de color en ese punto, simulando un pico. Una impresora de CD-R tiene una protuberancia en espiral larga que forma una ranura preliminar en el disco CD-R formateado. El surco áspero tiene una trayectoria ondulada que permite el seguimiento durante el proceso de grabación.
Hay tres tamaños de CD-R: 63 minutos (540 MB), 74 minutos (650 MB) y 80 minutos (700 MB). Dado que la diferencia de precio entre los dos es casi inexistente, es posible que los discos de 63 minutos eventualmente desaparezcan.
2.- TÉCNICAS DE GRABACIÓN
A diferencia del almacenamiento de archivos en discos duros u otros medios donde los datos se escriben según sea necesario, la creación de un disco preliminar es una actividad deliberada. En general, se intenta llenar completamente cada disco óptico, ya que es poco probable que se vuelva a utilizar. Es posible añadir sesiones de grabación a un disco CD-R ya grabado (en lo que se denomina multisesión).
Al diseñar la organización de datos para el futuro CD, se deben considerar las características de rendimiento de la tecnología de disco óptico. Las unidades de CD tienen tiempos de acceso aleatorio muy lentos (de 10 a 20 veces más lentos que un disco duro) y tasas de transferencia de datos más lentas (varias veces más lentas que un disco duro). Estas características pueden requerir que rediseñe un programa de recuperación de datos, por ejemplo, para trabajar con discos CD-R.
El sistema debe mantener la tasa de transferencia (150 Kbps para 1X, 300 Kbps para 2X, 600 Kbps para 4X y 900 Kbps para 6X) durante toda la sesión de grabación. Este requisito es obligatorio porque la corrección de errores CIRC distribuye datos contiguos en bloques separados en el CD, lo que significa que es imposible detener y reanudar una sesión. Desafortunadamente, la contención de dispositivos SCSI también puede reducir el rendimiento por debajo del mínimo.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 291
Debe tener un plan de prueba antes de comprobar periódicamente el contenido de un CD-R. Los métodos de prueba pueden ser una suma de verificación en los archivos de datos, una comparación entre cada byte de los datos de origen y cada byte en el disco CD-R o un programa de prueba comercial.
3.- EQUIPOS NECESARIOS PARA LA GRABACIÓN DE CD-ROM
Si decide dedicar una máquina únicamente a la grabación de CD, el equipo debe tener al menos un procesador de 486 @ 25 Mhz, 8 MB de RAM o más y una conexión SCSI dedicada (o de uso limitado). La máquina debe tener al menos dos discos duros. Uno de ellos debe tener una capacidad mínima de 1 GB, mientras que el otro no debe ser inferior a 650 MB. El primero de estos discos duros (unidad de recopilación) contendrá software del sistema, aplicaciones y 650 MB de espacio libre para recopilar archivos de datos. El segundo disco duro contendrá el archivo de imagen del CD-R antes de que los datos se escriban en el disco óptico.
Es posible que el primer disco duro no sea necesario si otros dispositivos externos (como unidades de red o unidades Zip y DAT) pueden albergar todos los archivos que se escribirán en la unidad óptica. La mayoría del software de creación de volúmenes premaster le permite seleccionar archivos almacenados en cualquier unidad, pero esto expone el proceso de creación de archivos de imagen a mucha más incertidumbre. Asimismo, se puede omitir el segundo disco duro si su software de grabación le permite grabar directamente en un CD sin crear un archivo de imagen. Nuevamente, esta arquitectura tiene muchos más problemas y requiere que la plataforma de grabación use hardware de alto rendimiento.
La computadora que ejecuta el sistema de grabación puede limitar sus opciones para los dispositivos de grabación. Una máquina lenta solo puede admitir quemadores de una y dos velocidades, pero no los más rápidos.
La cantidad de producción fonográfica también es materia de investigación. Si la norma es crear discos individuales, la velocidad de escritura no es un problema, ya que el proceso de creación de volúmenes antes del volumen maestro consumirá la mayor parte del tiempo de producción de cada disco. Pero si a menudo se necesitan varias copias de cada volumen, una grabadora de cuatro o seis velocidades se pagará sola en poco tiempo. En general, vale la pena utilizar un sistema rápido para crear volúmenes premaestros a partir de discos.
Quién y cómo son otras cuestiones, si el personal que realizará las copias no es personal cualificado, o si estas copias se van a realizar en paralelo con otros trabajos, el equipo adecuado es hacer copias de un original sin pasar por un proceso difícil. . : El original se coloca en un lector y los CD como este se retiran de la grabadora o grabadoras.
3.1.-Discos nuevos, reproductores viejos
La siguiente extensión lógica del CD-R es el CD-E (Disco compacto borrable). Este patrón utilizará una tecnología de cambio de fase para el reemplazo. Si los productos CD-R tienen como objetivo el intercambio de información y el archivo de documentos, el CD-E competirá directamente con los sistemas magneto-ópticos (MO) y los discos duros. Además, las unidades de CD-E admiten discos CD-ROM actuales, escritura y lectura de discos CD-R, y escritura, lectura y sobrescritura de discos CD-E.
4.- FORMULARIOS FÍSICOS (FORMULARIOS DE REGISTRO)
Familia corta:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 292
CD-DA (Discos Compactos de Audio Digital - LIBRO ROJO)
DVD
INTRODUCCIÓN
El paso del tiempo nos demuestra que la tecnología se desarrolla con él. Cuando nos detenemos a leer un avance tecnológico en particular, es seguro que podemos conocer un gran avance en el campo de las TI. Estos avances son los que vale la pena conocer, porque en poco tiempo definitivamente los estaremos usando. Uno de los desarrollos más importantes son los medios de almacenamiento, que pueden contener cantidades cada vez mayores de información en un dispositivo de mejor calidad.
A través de un estudio en el desarrollo del trabajo se profundiza en la importancia del tema y una gran variedad del mismo, lo que permite dar respuesta a las interrogantes.
reproductores y grabadores de DVD
En el desarrollo de las computadoras, los dispositivos de almacenamiento han jugado un papel importante en su capacidad para almacenar grandes cantidades de información y promover la difusión de la informática. Si recordamos, las computadoras hace años tenían memorias mínimas basadas en registros muy rudimentarios que podían almacenar solo los datos con los que se trabajaría inmediatamente. Desde ese momento hasta hoy, existe una división en cuanto a las unidades de memoria disponibles en una computadora. Por un lado está la memoria principal, que hoy en día todos reconocemos al hablar de SIMM o DIMM, y por otro lado la memoria secundaria. Este último, más económico, es necesario en la computadora actual y se encuentra en todo tipo de dispositivos de almacenamiento masivo: discos duros, magneto-ópticos o CD-ROM, utilizados originalmente como soporte de audio.
Diferentes generaciones.
En el desarrollo de los DVD hubo pequeñas mejoras que provocaron una división generacional de muchos dispositivos de este tipo. Aunque la inclusión en uno u otro no está definida en ningún estándar, un dispositivo de DVD estará incluido en uno, principalmente debido a la velocidad de transferencia. Otra de las condiciones que condicionan la presencia de uno u otro lector en las distintas categorías es la constante revisión de las especificaciones de los distintos formatos. Estas revisiones se centran principalmente en el tema de la compatibilidad con otros formatos, la unificación de algunos criterios y la mejora del rendimiento en general, principalmente en cuanto a la velocidad de transferencia. La velocidad en cuestión, que es indicada por los fabricantes con
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 293
formatos 1x, 2x, etc. Esto muchas veces no se corresponde con la realidad, y por ello existe cierta confusión a la hora de ubicar a un lector en una generación u otra, que los fabricantes y distribuidores han utilizado para vender las llamadas unidades de última generación, ya sea la tercera o la última aparece en cuarto lugar. . Los tiempos de acceso también tienen su propio peso a la hora de elegir uno u otro producto. Estos son mejores que las unidades de CD-ROM, lo que por otro lado tiene sentido dada la gran cantidad de información a la que se puede acceder.
Discos ópticos: Origen
Los discos ópticos aparecieron a fines de la década de 1980 y se utilizaron como medio de almacenamiento de información para la televisión. Su alta capacidad y fácil portabilidad popularizaron este dispositivo y comenzó a comercializarse en 1988 y utilizarse en computadoras. La primera generación de discos ópticos se inventó en Philips y se desarrolló en colaboración con Sony. Los discos ópticos utilizan dos tecnologías para almacenar datos: WORM (Write Once Read Many- Write Once Read Many) y CD-ROM (Compact Disk Read Only Memory- Compact Disc - read-only memory). Los discos magnéticos utilizan WMRA (Write Many Read Always). ), que le permite leer y escribir tantas veces como sea necesario.
tecnología óptica
La tecnología de almacenamiento óptico láser es muy reciente. Su primer uso comercial masivo fue el exitoso CD de música que data de principios de la década de 1980. Los principios técnicos básicos utilizados son relativamente fáciles de entender: un rayo láser lee (o escribe) pequeños agujeros en la superficie de un disco de plástico. , cubierto con una capa transparente para protegerlo del polvo. De hecho, el método es muy similar al utilizado en los discos de vinilo antiguos, excepto que la información se almacena en formato digital (números y ceros como valles y picos en la superficie del CD) en lugar de analógico, y utilizando un láser como medio. lector. El sistema no sufrió cambios significativos hasta la llegada del DVD, que solo cambió la longitud de onda del láser, redujo el tamaño de los agujeros y achicó las ranuras para que cupiera más información en el mismo espacio.
¿Qué son los discos ópticos? Tipos y usos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 294
Los discos ópticos tienen una capa interna protegida donde los bits se almacenan usando diferentes tecnologías y todos los bits se leen usando un rayo láser incidente. Esto, cuando se refleja, hace posible detectar variaciones microscópicas en las propiedades de reflexión óptica resultantes del registro escrito. Un sistema óptico con lentes dirige el haz de luz y lo concentra en un punto de la capa del disco que almacena los datos. Un disco que se lee y escribe con luz. Esta categoría incluye los CD-ROM que se graban en el momento de la fabricación y no se pueden borrar. Gusanos (Write Once Read Many) que se registran en el entorno del usuario y no se pueden eliminar. Y los borrados, que son los que se pueden reescribir infinitamente, por eso se utiliza la Magneto-Óptica (MO) y la tecnología de cambio de fase.
tipos de CD
Soporte de capacidad de almacenamiento
duración máxima de audio
duración máxima del vídeo
Número de CDS a los que corresponde
Disco compacto (CD) 650 Mb 1 h 18 min. 15 minutos 1 DVD de una sola cara/una sola capa de 4,7 GB 9 horas y 30 minutos. 2:15:7
DVD de una o dos caras
8,5 GB 17 t 30 min. 4:13
DVD de doble cara/una sola capa
9,4 GB 19 t 4 t 30 min. 14
DVD de doble cara/doble capa 17 GB 35 h 8 h 26
Las tecnologías de grabación (grabación) son:
• Con fundición a presión de níquel (CD-ROM y DVD-ROM),
• Cuando se expone a un rayo láser (CD-R y CD-RW, también llamado CD-E), (4)
• Cuando se expone a un rayo láser junto con un campo magnético (discos magneto-ópticos - MO.)
Los discos ópticos tienen las siguientes características que los diferencian de los discos magnéticos:
Los discos ópticos, además de ser medios removibles capaces de almacenar cantidades masivas de datos en espacios pequeños (al menos diez veces más que un disco duro del mismo tamaño), son portátiles y seguros en términos de retención de datos (que también permanece si se corta). ). .) Que se puedan beber proviene del hecho de que se pueden quitar del dispositivo. También tienen un bajo costo por byte.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 295
fue salvado. Los CD-ROM se copian (producen) en masa. La mayor capacidad de los discos ópticos en comparación con los discos magnéticos se debe a la precisión del rayo láser incidente y la precisión del foco óptico del láser. Esto permite que los bits estén más juntos en un fragmento (mayor densidad lineal) y que los fragmentos estén más juntos (más t.p.i.).
Los CD son más seguros para el almacenamiento de datos, ya que la capa que los almacena es inmune a los campos magnéticos domésticos, además de estar protegido de la corrosión ambiental, manipulación, etc., ya que está recubierto por dos capas transparentes de policarbonato. Por otro lado, la cabeza móvil, que lleva la fuente láser y la óptica asociada, al estar a 1 mm de la superficie del disco, nunca puede tocarlo. Por tanto, no provoca desgaste por fricción, ni riesgo de “aterrizaje” como en un disco duro de cabeza flotante. El rayo láser que enfoca la información tampoco puede afectarla debido a su baja potencia.
Los usos comunes de los discos ópticos son:
• Bases de datos en CD-ROM para bibliotecas de datos inmutables (enciclopedia, distribución de software, manuales de software, demostraciones, etc.);
• Para servidores de archivos en una red local, así como cuando se usa CD-R (puede ser escrito por el usuario)
• Copias de seguridad,
• Bibliotecas de imágenes.
Se puede estimar entre 10 y 15 años para la vida útil de la información en un CD-ROM común, ya que la superficie de aluminio que contiene la información se oxida muy lentamente durante este tiempo, a menos que se exponga a una protección especial contra la oxidación, por ejemplo, h. de oro. En un CD-R, este período será mucho más largo debido a que la delgada capa interna de metal muestra el color dorado.
En el procesamiento de datos, se utilizan los siguientes tipos de discos ópticos:
Grabación masiva del fabricante, de solo lectura: como CD-ROM (Disco compacto de solo lectura) y DVD-ROM (Disco flexible digital de solo lectura). producidos por inyección de material (sin el uso de un láser) Los discos se obtienen así con una fina capa de aluminio reflectante -entre dos capas protectoras transparentes-. Esta capa almacena unos y ceros en un lado como ranuras discontinuas que forman una única órbita en espiral. La bobina se lee con luz láser desde la unidad de CD del usuario.
El usuario solo puede escribir una vez: CD-R (CD-Writable) anteriormente llamado CD-WO (Write-Once) Durante la grabación, el rayo láser sigue una trayectoria en espiral prefabricada a través de una capa de pigmento. Donde golpea el rayo, su calor decolora permanentemente el punto de impacto. Al leer, esta capa permite que el rayo láser pase a través de la capa reflectante dorada que se encuentra encima y se refleja de manera diferente dependiendo de si el rayo pasó a través de un punto descolorido o no, detectando así unos y ceros. Ambas capas están protegidas por dos capas transparentes. Una vez escrito, un CD-R se puede leer como un CD-ROM.
Erase-rewrite: En la tecnología de grabación magneto-óptica (MO), la luz láser calienta puntos (que serán uno) de una capa -que previamente estaban magnetizados uniformemente- para que pierdan su magnetización original (esto corresponde a ceros). , un campo magnético aplicado produce sólo en estos puntos una magnetización opuesta a la original (que registre alguna).
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 296
Estas diferencias puntuales en la magnetización se detectan al leer con luz láser (de menor potencia), ya que provocan una polarización diferente de la luz láser que reflejan. Otro tipo de CD óptico regrabable es el CD-E (CD-Erasable), ahora llamado CD-RW (CD ReWritable), con grabación de "cambio de fase". Esta es una tecnología óptica pura sin magnetismo que requiere un solo paso para escribir parte o la totalidad de la pista espiral.
Debido a la cantidad de información que manejamos hoy en día, los dispositivos de almacenamiento se han vuelto casi tan importantes como la propia computadora.
desarrollo
El permanente desarrollo de las TI permite a los usuarios sustituir sin duda alguna los habituales CD-ROM en nuestros equipos informáticos.
Esto se debe a la aparición a fines de 1995 del reemplazo físico del CD-ROM, denominado DVD. Estos acrónimos originalmente significaban Disco de video digital, pero su evolución como medio de almacenamiento para todo tipo de datos significó que la "V" significara Versátil en lugar de Video.
El DVD surgió del esfuerzo de las principales empresas por crear un nuevo formato con mejores prestaciones.
Gigantes del mundo audiovisual como Yací, Pioneer o Sony están en el consorcio que llevó a cabo el desarrollo del DVD, fruto de la unión de dos proyectos que tenían el mismo objetivo, sustituir al CD-ROM como soporte de almacenamiento y que se llaman SD y MMCD.
Tecnología.
Para leer información, todos estos dispositivos se basan en las propiedades reflectantes de un haz de luz láser.
Dependiendo de cómo se refleje la luz láser de una forma u otra, el lector podrá determinar si la información que está leyendo en un momento dado corresponde a los números enteros uno y cero. Si bien la frecuencia de un CD es fija y está en el espectro infrarrojo, no es fija y se debe variar su frecuencia para acceder a los diferentes aspectos y niveles. Además, las frecuencias láser que impulsan un DVD son mucho más bajas (635-650 nanómetros en comparación con los 780 nm de un CD-ROM) y, por lo tanto, permiten una precisión mucho mayor al leer datos. Esta es la razón principal por la que una unidad D-ROM normal no puede acceder a la información almacenada en un DVD. Realmente no, al contrario, la compatibilidad entre DVD y CD es completa. Otras ventajas del DVD son que utiliza completamente las opciones de almacenamiento de un disco compacto. En un CD normal encontramos las dos caras habituales, pero sólo una de ellas está destinada a almacenar información. El otro se utiliza simplemente para identificar el CD gracias a una etiqueta adherida a él mediante varios métodos.
En un DVD puede disfrutar de ambas caras del disco y aún hay más. En cada uno de ellos hay las llamadas capas. Con una cara, a la que se puede acceder variando el rayo láser para que el reflejo aparezca en la capa de la cara especificada. Debajo del barniz protector en la superficie del disco hay dos capas internas en las que se puede almacenar información, una de las cuales es translúcida. Ambos están igualmente espaciados lo suficientemente separados como para que la luz del láser pueda afectarlos indiscriminadamente.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 297
Esta tecnología permite copiar e incluso guardar la calidad de un DVD convencional de una cara y una capa, y cuando se trata de un DVD de dos caras y dos capas por página hasta la insignificante cantidad de 17 g bytes, la misma cantidad que podría almacenar 26 CD. convencional.
Información técnica
Un DVD de una sola capa puede contener hasta 4,7 gigabytes (conocido como DVD-5), unas siete veces más que un CD estándar. Utiliza un láser de lectura con una longitud de onda de 650 nm (en el caso de los CD es de 780 nm) y una apertura numérica de 0,6 (frente al 0,45 de los CD), la resolución de lectura se incrementa en 1,65. Esto es cierto en dos dimensiones, por lo que la densidad de datos físicos reales aumenta en un factor de 3,3.
El DVD utiliza un método de codificación más eficaz en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como CRC, codificación Reed-Solomon, RS-PC y modulación de ocho a catorce líneas. los cuales fueron reemplazados por una versión más eficiente, EFMPlus, con las mismas propiedades que el EFM clásico. El subcódigo del CD ha sido eliminado. Como resultado, el formato DVD es un 47 % más eficaz que el CD-ROM, que utiliza una tercera capa de corrección de errores.
A diferencia de los CD, donde el audio (CDDA, Red Book) se almacena de una manera fundamentalmente diferente a los datos (Yellow Book), un DVD creado correctamente siempre contendrá datos que siguen los sistemas de archivos UDF e ISO 9660.
tipos de DVD
Los DVD se pueden clasificar en:
• dependiendo de su contenido: o DVD-Video: Películas (video y audio) o DVD-Audio: Audio de alta fidelidad o DVD-Data: Todos los datos
• según la capacidad de regrabación: o DVD-ROM: solo lectura, producido mediante impresión o DVD-R: escritura única o DVD-RW: regrabable o DVD-RAM: regrabable aleatoriamente. hacer un cheque
integridad de datos siempre habilitada después de completar la grabación o DVD+R: escritura una vez o DVD+RW: regrabable o DVD-R DL: escritura una vez con doble capa o DVD+R DL: escritura una vez con doble capa o DVD-RW DL: doble capa Regrabable o DVD+RW DL: doble capa regrabable
• según el número de capas o caras: o DVD-5: una cara, una sola capa. 4,7 GB o 4,38 gigabytes (GiB): discos DVD±R/RW. o DVD-9: una cara, doble capa. Discos DVD±R DL de 8,5 GB o 7,92 GiB. o DVD-10: doble cara, una sola capa en ambos. Discos DVD±R/RW de 9,4 GB o 8,75 GiB. DVD-14: doble cara, doble capa en un lado, capa única en el otro. 13,3 GB o 12,3 GiB -
Raramente usado. o DVD-18: de los chicos, doble portada en ambos. Discos de 17,1 GB o 15,9 GiB: DVD+R.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 298
El disco puede ser de una o dos caras y tener una o dos capas de datos en cada cara. el número de caras y capas determina la capacidad del disco. Los formularios dúplex rara vez se utilizan. También hay DVD de 8 cm. (no confundir con miniDVD, que son CD que contienen información de tipo DVD-Video), que tienen una capacidad de 1,5 GB.
La capacidad de un DVD-ROM se puede determinar visualmente mirando el número de páginas de datos y mirando cada una. Las capas dobles suelen ser doradas, mientras que las capas simples son plateadas, como un CD. Otra forma de saber si un DVD contiene una o dos capas es mirar el anillo central del disco, que contendrá un código de barras para cada capa. Todos los discos pueden contener cualquier contenido y tener cualquier disposición de capas y caras. El DVD Forum creó los estándares oficiales de DVD-ROM/R/RW/RAM y la DVD+RW Alliance creó los estándares de DVD+R/RW para evitar pagar la tarifa de licencia al DVD Forum. Dado que los discos DVD+R/RW no forman parte de los estándares oficiales, no muestran el logotipo de DVD. En cambio, llevan el logo "RW", a pesar de que son discos de un solo uso, lo que ha causado cierta controversia en algunos círculos, quienes consideran que se trata de publicidad engañosa.
"+" y "-" son patrones técnicos similares y parcialmente compatibles. En 2005, ambos formatos eran igualmente populares: la mitad de la industria admitía "+" y la otra mitad "-", aunque actualmente admiten ambos. Parece que ambas formas coexistirán indefinidamente. Todas las unidades de DVD deberían poder leer ambos formatos, aunque la compatibilidad real es de alrededor del 90% para ambos formatos, siendo DVD-R más compatible en pruebas independientes. La mayoría de las grabadoras de DVD más nuevas pueden grabar en ambos formatos y llevar los logotipos +RW y DVD-R/RW.
Pedo
La velocidad de transferencia de datos de una unidad de DVD se expresa en múltiplos de 1350 kB/s, lo que significa que una unidad 16x permite una transferencia de datos de 16 x 1350 = 21600 kB/s (21,09 MB/s). Dado que las velocidades de la unidad de CD se especifican en múltiplos de 150 kB/s, cada múltiplo de las velocidades de DVD es igual a nueve múltiplos de las velocidades de CD. En términos de rotación física (rpm), un múltiplo de la velocidad de DVD es igual a tres veces la velocidad de CD, por lo que la cantidad de datos leídos durante una rotación es tres veces mayor para DVD que para CD y DVD 8x. la unidad tiene la misma velocidad de giro que una unidad de CD de 24x. Las primeras unidades de CD y DVD leen datos a una velocidad constante (velocidad lineal constante o CLV). Los datos en el disco pasaron bajo el láser de lectura a una velocidad constante. Dado que la velocidad lineal (metros/segundo) de la pista es mayor cuanto más lejos está del centro del disco (en relación con el radio), la velocidad de rotación del disco se ajustó de acuerdo con la parte del disco que se estaba leyendo. Hoy en día, la mayoría de las unidades de CD y DVD tienen una velocidad de rotación fija (velocidad angular constante o CAV). La velocidad máxima de transferencia de datos especificada para una unidad y un disco determinados solo se alcanza en el borde del disco. Por lo tanto, la velocidad promedio de la unidad es igual al 50-70% de la velocidad máxima de la unidad y del disco. Si bien esto puede parecer una desventaja, estas unidades tienen un tiempo de búsqueda más corto porque nunca necesitan cambiar la velocidad de giro del disco.
Nombre técnico del objeto: DVD (disco de video digital), Dimensión técnica:
Destinado a: almacenar archivos multimedia de alta calidad (específicamente películas de larga duración con múltiples secuencias de audio y subtítulos), aunque se puede usar para almacenar cualquier tipo de datos.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 299
Estructura: Gráficos:
piezas y dimensiones
Descripción: Similar a los discos compactos en dimensiones físicas (diámetro 12 u 8 cm), pero codificado en un formato diferente y con una densidad mucho mayor, es un disco compacto en el que se puede almacenar música y video. hecho de plástico recubierto con una capa de metal muy delgada y tiene una capacidad de 8,5 gigabytes o un DVD de una sola capa puede almacenar hasta 4,7 gigabytes (conocido como DVD-5) y los DVD se pueden clasificar: Según su contenido: DVD - Video : películas (video y audio), DVD-Audio: audio de alta definición, DVD-Data: todos los datos. De acuerdo con la regrababilidad: DVD-ROM: Solo lectura, impresión, DVD-R: Grabar una vez, DVD-RW: Regrabable, DVD-RAM: Regrabable aleatorio. Realiza una comprobación de la integridad de los datos cuando finaliza la grabación, DVD+R: escritura única, DVD+RW: regrabable, DVD-R DL: escritura única de doble capa, DVD+R DL: escritura única de doble capa, DVD-RW DL: doble capa regrabable , DVD+RW DL: Doble capa regrabable Según el número de capas o páginas: DVD-5: Una cara, una sola capa. 4,7 GB o 4,38 gibibytes (GiB) - Discos DVD±R/RW, DVD-9: una cara, doble capa. 8,5 GB o 7,92 GiB - DVD±R DL, DVD-10: doble cara, una sola capa en ambas caras. Discos de 9,4 GB o 8,75 GiB - DVD±R/RW, DVD-14: doble cara, doble capa en uno, capa única en el otro. 13,3 GB o 12,3 GiB: poco uso, DVD-18: doble cara, doble capa en ambos lados. Discos de 17,1 GB o 15,9 GiB: DVD+R.
grabación de doble capa
La grabación de doble capa permite que los discos DVD-R y DVD+R almacenen muchos más datos, hasta 8,5 Gigabytes por disco. disco en comparación con los 4,7 GB de los discos de una sola capa. DVD-R DL (doble capa) fue desarrollado para DVD Forum por Pioneer Corporation. DVD+R DL fue desarrollado para DVD+R Alliance por Philips y Mitsubishi Kagaku Media.
Un disco de doble capa se diferencia de un DVD convencional en que utiliza una segunda capa física colocada dentro del disco. Un lector con capacidad de doble capa accede a la segunda capa proyectando el láser a través de la primera capa translúcida. El mecanismo de escalado de algunos DVD puede provocar una pausa de unos segundos. Los discos grabables son compatibles con esta tecnología y mantienen la compatibilidad con algunos reproductores de DVD y unidades de DVD-ROM. Muchas grabadoras de DVD son compatibles con la tecnología de doble capa y tienen un precio comparable al de las unidades de una sola capa, aunque el medio sigue siendo significativamente más caro.
TABLA DE COMPARACIÓN DE CD-ROM Y DVD-ROM:
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 300
CD-ROM (disco compacto con memoria de sólo lectura) y CD-RW (disco compacto regrabable)
DVD-ROM (disco digital versátil)
Solo se puede leer y escribir una vez si tiene una unidad grabable (CD-ROM) o de lectura regrabable (CD-RW).
Se utiliza para audio y video de alta definición.
Algunos creen que reemplazará al CD-ROM. Almacena hasta 650 Mb. Ahorre hasta 17 Gb.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 301
La tecnología de doble capa DVD+R DL fue desarrollada por Philips en colaboración con MKM (Mitsubishi Kagaku Media), la empresa matriz de Verbatim. Con la tecnología de una sola capa, independientemente del formato DVD+R o DVD-R, podemos grabar hasta 4,7 GB de datos (en realidad, 4,38 GB). Para superar esta cantidad, cuando grabamos un disco, debemos utilizar la tecnología de doble capa, que nos permite grabar un máximo de 8,5 GB de información (7,95 GB en términos reales). Esta tecnología utiliza dos capas compuestas por un sustrato orgánico y conectadas por una capa intermedia. Usemos una imagen para entender este concepto:
Como se muestra en la imagen de arriba, los discos DVD+R DL de doble capa constan de dos capas grabables, llamadas L0 y L1. La primera capa de escritura, L0, está conectada a una capa reflectante translúcida que, dependiendo de la intensidad del láser, permite leer o escribir en ella, o atravesarla y leer o escribir en la segunda capa, L1. La primera capa, L0, tiene una reflectividad superior al 18%, lo que la hace compatible con el estándar DVD-ROM. La segunda capa, L1, tiene una reflectividad muy superior (superior al 50%) y una mayor sensibilidad del láser, compensando la pérdida de intensidad que se produce al atravesar el metal translúcido de la capa L0, dejando una reflectividad superficial efectiva. de disco superior al 18%, lo que mantiene la compatibilidad de la segunda capa, L1, con el estándar.
¿HD DVD o Blu-Ray? ¡Nuevo!
blu-ray
Blu-ray es una nueva generación de formato de disco óptico de 12 cm. de diámetro (igual que CD y DVD) para almacenamiento de video de alta definición y alta densidad de datos. De hecho, afirma ser el sucesor de los estándares de medios ópticos para DVD. Su rival es HD-DVD. El disco Blu-Ray utiliza un láser azul de 405 nanómetros, a diferencia del DVD, que utiliza un láser rojo de 650 nanómetros. Esto permite grabar más información en un disco del mismo tamaño. Blu-ray recibe su nombre del color azul
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 302
rayo láser ("rayo azul" en español significa "rayo azul"). Se ha eliminado la letra "e" de la palabra original "azul" porque en algunos países no se puede registrar una palabra común para el nombre de una empresa. Este rayo azul exhibe una longitud de onda corta de 405 nm y, combinado con otras técnicas, puede almacenar muchos más datos que un DVD o un CD. Blu-ray y HD-DVD comparten las mismas dimensiones y apariencia. Blu-ray es desarrollado conjuntamente por un grupo de empresas de tecnología llamado Blu-ray Disc Association (BDA), liderado por Sony y Philips.
Intel y Microsoft anunciaron que admitirán HD DVD desarrollado por Toshiba. HD DVD es uno de los dos formatos que compiten para reemplazar el DVD para soporte de almacenamiento de datos (video, archivos, audio). El segundo disco se llama Blu-Ray y es obra de Sony. El problema es que como todavía no hay acuerdo sobre un estándar único, podemos seguir usando sólo DVD (aunque la PS3 usará Blu-Ray, por ejemplo). Y parece difícil cambiar la situación, principalmente por el calibre de las empresas de cada lado. La composición de los dos equipos (actualizada):
HD DVD: Discos espaciales de 15 GB y 30 GB (capa simple y doble), utilizando una tecnología llamada iHD, desarrollada por Microsoft y Toshiba.
• Toshiba (o criador) • Microsoft • Intel • Sanyo • NEC • HBO • New Line Cinema • Paramout Home Entertainment • Universal Studios • Warner Home Video
Blu-ray: discos de 25 GB y 50 GB (una y dos capas) con tecnología Java de Sun.
• Sony (el creador) • Panasonic • LG
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 303
• Philips • Dell • Hewlett Packard • Sharp • Pioneer • Apple Co. • Electronic Arts • Twentieth Century Fox • Vivendi Universal • Walt Disney
Se pensaba que el anuncio de Microsoft e Intel inclinaría la balanza a su favor, pero parece que no ha sido así. Principalmente porque las empresas que dan soporte a Blu-Ray (específicamente Dell y HP, que también son socios de Gates) han dado soporte al disco creado por Sony. También aprovecharon para aclarar algunas cosas que había dicho Microsoft que no eran tan ciertas. Y fue un golpe aún mayor para la gente de HD DVD. ¿Por qué Gates admitió HD DVD?
• Dice que el disco Blu-Ray de 50 GB es una estafa y, con mucho, el más grande es el HD DVD de 30 GB. Esto fue rechazado por Blu-Ray (ver foto): dijeron que el Blu-Ray de 50 GB saldrá el próximo año de todos modos.
• Se supone que los HD DVD tienen un programa llamado "copia administrada" que le permite copiar una película a un disco duro. Los chicos de Blu-Ray dicen que ellos también.
• MS dice que HD DVD permite una "mayor interactividad", como poner un PIP dentro de una película donde la imagen del director comenta sus payasadas.
• Los HD DVD tendrán la ventaja de ser discos 'híbridos', lo que significa que funcionan tanto en reproductores de HD DVD más nuevos como en reproductores de DVD más antiguos. La contraparte dice que Blu-Ray también es un híbrido.
Tecnología
El tamaño del "punto" más pequeño en el que se puede enfocar un láser está limitado por la difracción y depende de la longitud de onda del haz de luz y la apertura numérica de la lente utilizada para enfocarlo. En el caso del láser azul-violeta utilizado en los discos Blu-ray, la longitud de onda es más corta que en tecnologías anteriores, aumentando la apertura numérica (0,85 frente a 0,6 para DVD). Con ello, y gracias a un sistema de doble lente y una capa protectora más fina, el rayo láser puede enfocarse con mucha más precisión sobre la superficie del disco. En otras palabras, los puntos de datos legibles en el disco son mucho más pequeños, por lo que el mismo espacio puede contener mucha más información. Finalmente, además de las mejoras en la tecnología óptica, los discos Blu-ray contienen un sistema de codificación de datos mejorado que permite comprimir aún más información.
Otra característica importante de los discos Blu-ray es su resistencia a los arañazos y la suciedad.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 304
morfología. Los discos tienen una capa de sustrato, con la marca Durabis, que es un sustrato de 1,1 mm en un lado y 1 mm en el otro para permitir el uso de múltiples capas de datos y solo un lado. Originalmente se pensó que se fabricarían como cartuchos, similares a los disquetes de computadora, pero el TDK se abandonó cuando se descubrió un sustrato que evitaba los rasguños y los hacía más fáciles de leer (aunque ahora son mucho más raros). o con suciedad. Esto les da algo nuevo que será muy apreciado por los usuarios que en muchos casos están cansados de los CD y DVD rayados y representa una ventaja adicional sobre el formato HD-DVD de la competencia.
Los discos BD están disponibles en diferentes formatos de disco.
• BD-ROM: Un disco de sólo lectura. • BD-R: Disco grabable. • BD-RE: Disco regrabable.
Porque ahora estamos perdidos. Porque si no hay acuerdo sobre un estándar único, eso significa que tendremos que ceñirnos a los DVD de 4,7 GB por ahora. ¿Se hará el trato? Probablemente sucedió con el propio DVD (fue la unión entre Super Disc y CD Multimedia).
DVD de alta definición
HD DVD (disco versátil digital de alta definición) es un formato de almacenamiento óptico desarrollado como estándar para DVD de alta definición y desarrollado por Toshiba, Microsoft y NEC, así como por varios fabricantes de películas.
Descripción
Hay HD-DVD de una sola capa con una capacidad de 15 GB (alrededor de 4 horas de video de alta definición) y HD-DVD de doble capa con una capacidad de 30 GB. Toshiba ha anunciado que está en desarrollo un disco de tres capas, que alcanzaría los 45 GB de capacidad. En el caso de HD-DVD-RW, las capacidades son de 20 y 32 GB para una o dos capas, respectivamente. La velocidad de transferencia del dispositivo es de 36,5 Mbps.
HD-DVD funciona con un láser violeta con una longitud de onda de 405 nm.
Por lo demás, un HD-DVD es muy similar a un DVD convencional. La capa exterior del disco tiene un grosor de 0,6 mm, igual que el DVD, y la apertura numérica de la lente es de 0,65 (0,6 para DVD). Todos estos hechos hacen que el coste de producción de los discos HD-DVD sea bastante bajo, ya que sus características son muy similares a las de los DVD actuales. Los formatos de compresión de video utilizados por HD-DVD son MPEG-2, Video Codec 1 (VC1, basado en el formato Windows Media Video 9) y H.264/MPEG-4 AVC.
En términos de protección contra copia, HD-DVD usa una versión mejorada de DVD CSS, AACS, que usa codificación de 128 bits. También se incluye el token de restricción de imagen (IKT), que es un token que evita que el contenido de alta definición viaje en medios no cifrados y, por lo tanto, sea susceptible de copia. En la práctica, lo que hace es limitar la salida de video a una resolución de 960x540 si el cable que va del reproductor al televisor es analógico, incluso si el televisor admite alta definición. El TIC no es obligatorio y cada empresa decide libremente si lo incorpora a sus valores. Acerca de
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 305
Por ejemplo, Warner está a favor de usarlo, mientras que Fox está en contra. AACS requiere títulos que utilicen TIC para indicarlo claramente en contexto.
Las capacidades de HD DVD se mejoran mediante el uso de televisores y monitores que cumplen con el estándar de alta definición (medido en 1080i y 720p), lo que permite comprender lo último de lo que realmente es capaz el formato HD DVD. Por otro lado, empresas enfocadas en el uso y mercadeo de productos HD DVD han incursionado en sistemas capaces de grabar material en vivo de alta definición en discos HD DVD.
Cuando se trata de la experiencia de ver una película de los estudios de cine más grandes de Hollywood, el formato HD DVD permite el acceso a menús "emergentes" interactivos, mejorando en gran medida las capacidades limitadas de su predecesor, el DVD convencional, que tenía una sección de menú dedicada. película. Al incluir menús que pueden aparecer en cualquier parte de la película, HD DVD amplía sus ventajas frente a otros formatos al utilizar diferentes capas donde se graba la información, lo que permite diferentes lecturas de los datos y superposición de imágenes, como muy alta calidad de sonido.
HD-DVD está haciendo su entrada en el mundo de los videojuegos después de que Microsoft anunciara la comercialización de una expansión HD-DVD para la popular consola Xbox 360.
Historia
El 19 de noviembre de 2003, los miembros del DVD Forum decidieron por una votación de ocho a seis que HD-DVD sería el sucesor de DVD para HDTV. En esa reunión, se cambió el nombre del hasta ahora "Disco óptico avanzado". Los medios de disco Blu-ray de mayor capacidad se desarrollaron fuera del foro de DVD y nunca fueron votados por él.
Las especificaciones actuales para HD-DVD y HD-DVD-RW están en la versión 1.0. La especificación para HD-DVD-R está en la versión 0.9.
Compatibilidad con tecnologías anteriores
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 306
Ya existen unidades híbridas capaces de leer y grabar CD, DVD y HD-DVD. También logró desarrollar un disco híbrido de DVD y HD-DVD, por lo que podía comprar una película que podía verse en los reproductores de DVD actuales y que también estaba en alta definición si se insertaba en un reproductor de HD-DVD. . Sin embargo, estos discos deben ser de doble cara (DVD de doble capa por un lado y HD-DVD de una sola capa por el otro) porque la capa de datos es la misma en ambos formatos. Se obtuvo un disco híbrido de una sola cara con una capa de DVD y una capa de HD-DVD.
Empresas que admiten HD-DVD
Las empresas de electrónica e informática que admiten HD-DVD incluyen Canon Inc., Digital Theatre Systems, Hitachi Maxell Ltd., Intel, Kenwood Corporation, Microsoft, Mitsubishi Kagaku Media Co., Ltd., NEC Corporation, Onkyo Corporation, Sanyo Electric Co. Limitado. ., Corporación Teac, Corporación Toshiba. Los más importantes son Toshiba y NEC.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 307
Los estudios cinematográficos que admiten HD-DVD incluyen Universal Studios, Paramount Home Entertainment, Warner Bros., The Weinstein Company, Image Entertainment, Magnolia Pictures, Brentwood Home Video, Ryko, Koch/Goldhill Entertainment. Tenga en cuenta que Paramount y Warner, aunque inicialmente admitían HD-DVD, han anunciado que también lanzarán títulos en Blu-ray.
sistema operativo MS-DOS
DOS es un acrónimo de Disk Operating System, un sistema operativo creado por Microsoft que se instala en la mayoría de las PC.
Es DOS que forma parte de un sistema operativo, un conjunto de programas que nos permiten manipular la información de los discos, de esta forma podemos trabajar con ellos de manera fácil, cómoda y rápida. Además, DOS coordina el funcionamiento del microprocesador para que todo funcione bien dentro de nuestro ordenador.
Con el tiempo, Microsoft ha mejorado DOS desde la primera versión en 1981. Las versiones que existen se utilizan para corregir errores encontrados en la versión anterior o para mejorar ciertas partes del programa. Si la variante está en el primer dígito, significa que se han introducido cambios significativos, como resultado, por ejemplo, de las ventajas de los nuevos microprocesadores, en gran medida para aprovechar sus ventajas.
Si tiene instalado Windows 95, 98 o ME en su computadora, MS-DOS no aparecerá aunque esté instalado correctamente, pero Windows se iniciará automáticamente. Para poder trabajar con DOS tenemos dos opciones: la primera es dejar que Windows cargue y desde allí reiniciar con la opción MS-DOS. La segunda y más sencilla opción es que nada más encender el ordenador presiones varias veces la tecla F8. Aparecerá entonces un menú con varias opciones. seleccione el 4 que solo dice "Símbolo del sistema solamente". En el caso de Windows XP, no tenemos esta opción, ya que DOS solo está disponible para ciertas funciones y solo dentro de
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 308
desde XP, para ejecutarlo solo, es decir, sin una GUI, deberá comenzar con un disco de arranque de DOS.
comandos internos
• CD.- Para pasar de una carpeta a otra. • CLS.- Borra todo lo que hay en pantalla y devuelve el cursor a la esquina superior izquierda. • COPY.- Sirve para copiar archivos. • FECHA.- Sirve para cambiar o visualizar la fecha. • DEL.- Sirve para borrar archivos. • DIR.- Se utiliza para mostrar una lista de archivos y carpetas en la pantalla.
(carpetas) encontradas en una carpeta en el disco. • SALIR.- Sirve para salir de la ventana de MS DOS. • MD.- Sirve para crear una nueva carpeta. • PROMPT- Cambia la línea de visualización del aviso • RD.- Para eliminar una carpeta que está completamente vacía. • HORA: vea o cambie el reloj interno. • VER- Muestra la versión del sistema operativo • VOL- Muestra el contenido del disco duro y su etiqueta (si la tiene) • CD o CHDIR: La secuencia de sistemas operativos DOS y UNIX que nos ayudan a
mesa para cambiar pañales.
ECHO APAGADO: VER ECO
• ECHO: muestra un texto específico en la ventana
RENAME: se utiliza para cambiar el nombre de archivos y carpetas
comandos externos
• RESPALDO: realiza una copia de seguridad de uno o más archivos de un disco duro a un disquete.
• DELTREE: Sirve para borrar un directorio raíz, aunque contenga subdirectorios con todo su contenido.
• DISKCOPY: Permite realizar una copia idéntica de un disco a otro, pertenece al grupo de comandos externos.
• DOSKEY: Le permite guardar los comandos ejecutados en el puntero de la memoria RAM.
• FORMATEAR: Comando del sistema operativo MS-DOS cuya misión es formatear los dispositivos de almacenamiento (discos duros y disquetes).
• SCANDISK: si está ejecutando Windows, abra scandisk. • ÁRBOL: Su función es presentar gráficamente la estructura de un directorio raíz. • CHKDSK.- Comprueba si hay errores en el disco duro. • KEYB.- Especifique el idioma del teclado de acuerdo al parámetro agregado. • LABEL.- Muestra el volumen del disco duro y su etiqueta. • MEM.- Muestra la memoria RAM, el espacio ocupado y el espacio libre. • ATTRIB: muestra o cambia los atributos del archivo. • EDITAR - Editor que reemplaza a Edlin de DOS.5. Debe usarse principalmente para
modificar pequeños archivos de texto, empezando por los llamados "archivos de sistema", que son CONFIG.SYS y AUTOEXEC.BAT.
Fondo Ludovico Rutten
- Curso de Ensamblaje de Computadores y Redes 309
• BAT - Extensión especial para el nombre de los archivos de proceso, que tienen toda una serie de comandos propios. Uno de los más conocidos es el archivo AUTOEXEC.BAT, que se ejecuta automáticamente cuando se inicia la computadora.
• MOVER: mueve uno o más archivos y cambia el nombre de archivos o carpetas. Nuevo comando con DOS 6.