sábado, 21 de enero de 2012

Guía para comprar una computadora

                    (P) Hugo Napoli, 2012                    


Nota importante: la falta de experiencia me hizo caer en la incorrecta utilización de imágenes. Este es un problema ético que ya estoy comenzando a solucionar. En breve quedará resuelto. Gracias por tu comprensión.

Otra nota importante: el cierre de MegaUpLoad ha dejado inoperantes algunos enlaces de mis post, como le ha pasado a muchísima gente en el mundo. Estoy resubiendo mi material a RapidShare, MediaFire, HotFile, FileServe y GigaSize. Pasarán algunos días hasta que pueda solucionar esto. Algunos enlaces ya están reparados y funcionan correctamente. El resto, aún no. Gracias por tu paciencia.




Hola.
He decidido escribir este artículo en función de la situación que se genera cuando se quiere adquirir un ordenador y se tiene consciencia de lo complejo de la decisión que ello conlleva.
No nos resultará nada sencilla la obtención de datos técnicos de funcionamiento del PC si solamente contamos con el color y la forma de su gabinete como únicos datos surgidos de la observación minuciosa tras varios minutos de indecisión frente a una gama de máquinas que aún no logramos diferenciar con exactitud.

La idea es poder explicar -con un vocabulario más práctico que técnico- los factores a tener en cuenta a la hora de comprar un computador. Todo esto resultará breve, accesible e interesante, si estamos dispuestos a leer sin distracción durante un lapso de tiempo similar al que nos insume ir a hacer las compras al supermercado, o el transcurso de una mañana apacible de un día de descanso primaveral.

Se hablará entonces en términos simplificados y comprensibles, y si bien al principio puede verse muy extenso el artículo, finalmente se comprenderá que la única manera de lograr el cometido propuesto es, sin lugar a dudas, omitiendo información específica o particular que no se aplique al entorno o ambiente del tema tratado, sin dejar de profundizar ni ampliar el espectro en todos aquellos puntos que sea necesario abordar. Esta es una de las pocas razones fundamentales por las cuales decidí que la arquitectura del contenido fuese la de "cronología anidada". Es decir que, siempre que sea necesario, se hará una especie de presentación o introducción de etapas anteriores que resulten mínimamente representativas de cada uno de los temas tratados.

Gracias por leer este contenido. Trataré de incluir siempre información útil y no redundante. A continuación, la información.







Tratando de establecer un estándar, concluí en que son 7 los puntos a tener en cuenta a la hora de adquirir o actualizar un PC, los cuales no están en orden jerárquico, y son los siguientes.

1.  Microprocesador: cerebro del ordenador.
2. Memoria: espacio de residencia de información vital de los programas y área de trabajo del microprocesador.
3. Disco duro: almacén del computador.
4. Aceleradora gráfica: segundo microprocesador del PC, el cual se ocupa de procesar los datos de video enviados por el microprocesador, alivianando notablemente su tarea.
5. Unidad óptica: elemento de introducción y extracción de contenido multimedia y datos.
6. Tarjeta de red: dispositivo que nos permite intercambiar todo tipo de datos con otros ordenadores, y acceder a Internet.
7. Puertos USB disponibles: conectores que permiten integrar a nuestro PC una gama muy extensa de dispositivos electrónicos como teléfonos celulares, cámaras digitales de fotografia y video, unidades flash (pen drives), discos duros externos, dispositivos multimedia, periféricos en general, ...

A continuación, hablaré de cada uno de ellos.
La idea es comprender el qué y el por qué de esta tarea. No es necesario ser técnico para ello. Solo es necesario comprender qué representa cada pieza para el conjunto entero, cuáles son nuestras posibilidades para elegir lo que mejor se adapte a nuestras necesidades, y algo de audacia y ganas.






  I - DISPOSITIVOS FUNDAMENTALES   

1 - MICROPROCESADOR





Brevísima cronología histórica:
- 1980: primer procesador de difusión masiva de 32 bits [AT&T Bell Labs BELLMAC-32A]
- 2002-03: primeros procesadores de difusión masiva con tecnología Hyper-threading [Intel Pentium IV, Intel Xeon DP, ...]
- 2003-04: primer procesador de difusión masiva de 64 bits [AMD 64-bit IA-32]
- 2004: primer procesador de difusión masiva de doble núcleo de 32 bits: dual-core AMD Opteron
- 2005-06: primeros procesadores de difusión masiva de doble núcleo [Intel Itanium 2, AMD x86 64-bit 90-nm dual-core, Sun Microsystems UltraSparc IV+, Pentium IV Extreme Edition 840, AMD Opteron, Pentium D (modelos 820, 830, 840, 920, 930, 940 y 950, AMD Athlon 64 X2 (modelos 3900+, 4200+, 4400+, 4600+, y 4800+), Intel Xeon, ...]
- 2007-09: primeros procesadores de difusión masiva de 4 núcleos [Intel Core 2 Quad (modelos Q4400, Q6600, Q49650 y 9300), Intel Xeon 3200, Intel Q6700, Intel Core2 Extreme Quad (modelos SX9650, QX9770), AMD Phenom (modelos I y II), AMD Opteron EE 45nm, ...]

El procesador es uno de los dispositivos que guardan relación más directa con las tareas que le serán encomendadas al PC. Para diferentes tipos de uso, habrá diferentes tipos de procesadores.
Teniendo claras cuáles son nuestras necesidades informáticas, no será para nada difícil elegir un microprocesador para nuestro uso cotidiano.

1. Si realizas tareas básicas como lo es la navegación por Internet, el chat, envías y recibes correos electrónicos, visitas a menudo redes sociales como facebook o círculos google, y haces algún que otro trabajo de oficina con Excel, OpenOffice o LibreOffice, por ejemplo, un procesador modesto te será de gran utilidad. Bastará con un procesador de entre 1.8 y 2.5 GHz de velocidad, con arquitectura de 32 bits, de núcleo simple.

2. Si además de las actividades del punto 1 utilizas la PC para ver películas, hacer codificación multimedia (por ejemplo, conviertes películas en formato .avi a .mpeg2 o a dvd para verlas en tu reproductor de DVD o home theatre, o conviertes películas y videos a .mp4 o formatos similares para verlos en tu teléfono móvil, o extraes pistas de discos de música para pasarlas a .mp3 u otros formatos de similares características), escuchas música en la PC a menudo o a diario y a veces juegas a algún juego de requerimientos modestos, un procesador de capacidad algo más elevada hará un buen trabajo. Deberás elegir procesadores entre 2 y 3 GHz de velocidad, con arquitectura de 32 o 64 bits, de núcleo simple (con con hyper threading si es Intel), con true core scalability si es de AMD, o mejor aún, de núcleo doble (x2, dual core, core 2 duo, i3, i5, etc.).

3. Si tu PC tiene que ser capaz de desempeñarse bien en los puntos 1 y 2 y además capturas y/o editas video (grabas programas de televisión directamente desde la PC conectada a tu antena multicanal o al cable de señal de TV cerrada, utilizas tu ordenador para controlar un sistema de cámaras de seguridad, cortas películas, añades efectos de transición y renderizado y otros del mismo tipo), remasterizas, ecualizas o recodificas audio, utilizas tu PC como consola de grabación o de sonido, usas tu PC como centro multimedia y te gusta jugar a menudo a juegos con buena capacidad gráfico-auditiva, no tendrás más remedio que ir por un procesador potente a nivel de hogar. Éste deberá estar entre los 2 y 3 GHz de velocidad, tal vez tener capacidad de overclock automático o manual, con arquitectura de 64 bits, tener dos o tres núcleos (x2, x3, dual core, core 2 duo, i3, cualquiera de los primeros i5, etc.), incluír tecnología hyper-threading si es de Intel, con true core scalability e hyper transport si es de AMD, y por último, poseer no menos de 64 KB de memoria caché L1, no menos de 512 KB de memoria caché L2 y unos 2 a 4 MB de memoria caché L3.

4. También puede que seas un desquiciado del microchip. Puede que no necesites ni siquiera leer los 3 puntos anteriores. ¿Te gusta jugar, eh? ¿Tu PC funciona como centro del Universo ya no en tu casa, sino en tu lugar especial, privado y solo accesible a enfermos como tú o peores? ¿Necesitas un PC que corra cualquier tipo de juego sin siquiera estar informado de los requerimientos del mismo, no? Ok amigo, entonces ve por un procesador de 64 bits, de cuatro núcleos como mínimo (x4, cualquiera de los últimos i5, i7, quad core, core 2 quad). Ponte como meta mínima que cada núcleo corra a 2.2 GHz., y si puedes, trata de superar los 3 GHz. Las tecnologías hyper-threading para Intel, y true core scalability e hyper transport para AMD no serán una opción sino una meta para ti. Y aquí no hablaremos de memoria caché L1 y L2 sino L3 o memoria caché inteligente, la cual deberá tener una capacidad no menor de 4 MB (en lo posible, debes tratar de alcanzar los 8 MB en este sentido). ¡Y no olvides la posibilidad "sine qua non" de overclock automático y manual!

P.D.: lo de "desquiciado" va, evidentemente, en tono jocoso. Sé que para ti resultará un apodo cariñoso y que no te enfadarás por ello. Solo hago la aclaración para algún trasnochado que pueda estar merodeando por Internet a estas horas y sin rumbo ni idea fija... jajajaja


Información adicional:

Arquitectura - Juego_de_instrucciones_en_bits:

X86_16: 16 bits
X86_32: 32 bits
X86_64: 64 bits



2 - MEMORIA RAM







Breve cronología histórica:
- 1997-99: SDR [modelos PC66 (66MHz), PC100 (100 MHz) y PC133 (133 MHz)]
- 2001-04: DDR [modelos PC1600 (200 MHz), PC2100 (266 MHz) y PC3200 (400 MHz)]
- 2004: DDR2 [modelos PC4200 (533 MHz), PC4800 (600 MHz), PC5300 (667 MHz) y PC6400 (800 MHz)]
- 2004-08: DDR3 [modelos PC800 (800 MHz), PC1066 (1066 MHz), PC1333 (1333 MHz), PC1600 (1600 MHz), PC1800 (1800 MHz) y PC2000 (2000 MHz)]

La memoria RAM (o "Random Access Memory"), es el lugar físico en donde reposa la información que el Sistema Operativo y los programas han de tener más a mano, y es también en donde se desarrolla gran parte del flujo de datos que corre en la placa madre, desde y hacia el microprocesador. La memoria jamás se halla en reposo absoluto. La información almacenada en ella, permanecerá allí hasta que el equipo se apague, o bien hasta que los programas -o el mismo Sistema Operativo-, quiten sus datos de allí, por ejemplo, al cerrarse, finalizar una tarea o un proceso, o sufrir -¿por qué no?- un colapso o mal funcionamiento.

Hay que poner especial atención en la forma física de la memoria. Si bien todas sirven para lo mismo, aunque pertenezcan en conjunto a la tecnología DDR, poseen conectores diferentes y no se pueden instalar si no es en un zócalo de igual tecnología o formato físico.
Es decir que un banco de memoria DDR3 no se podrá insertar en un zócalo DDR.

Otro punto a tener en cuenta es que las placas madre a veces vienen preparadas para utilizar tanto la tecnología estandarizada en el momento como la inmediatamente obsolescente, o predecesora, o inmediata anterior.
Si tu placa tiene 2 zócalos DDR y 2 zócalos DDR2, por ejemplo, no pienses que -aunque pueda ser algo razonable-, poniendo 2 bancos de 1 GB cada uno en los 2 zócalos DDR y 2 bancos de 1 GB cada uno en los 2 zócalos DDR2 obtendrás 4 GB en total.
Estas tecnologías no son complementarias, al menos, hasta el momento.
Elige una o la otra, pero no ambas.

Entonces:

1. Cabe decir que cuanto más nueva sea la tecnología. mejor probabilidad de rendimiento mejorado tendremos. Así que si tu placa madre soporta memorias DDR2 y DDR3, es mejor que escojas DDR3.

2. Otro dato importante es la velocidad a la cual opera la memoria. Siempre hay que consultar las especificaciones de la placa madre (mobo, motherboard, placa base), por si existiese incompatibilidad con algún tipo de pieza que se le quiera instalar a la misma, y una vez superado este paso, se deberá observar también hasta dónde el PC es "escalable", es decir, "actualizable", y el grado de conveniencia de dicha empresa, así como su relación de costos y resultados.

3. En función del modelo y el tipo de Sistema Operativo que vayas a utilizar, y al uso que le vayas a dar al ordenador, es que variará la cantidad de memoria a destinar a ese PC. Toma como orientación los siguientes criterios para estar bien centrado:
Para Windows XP, OpenSuSe con escritorios XFCE o LXDE, XUbuntu, LUbuntu:Mínimo indispensable: 384 MB (con aceleradora gráfica de al menos 64 MB de RAM propietaria)
Mínimo aceptable: 512 MB
Sugerido: 784 MB a 1 GB
Para Windows VistaOpenSuSe con escritorio Gnome, Ubuntu Desktop Edition:Mínimo indispensable: 784 MB (con aceleradora gráfica de al menos 256 MB de RAM propietaria)
Mínimo aceptable: 1 GB
Sugerido: 1,5 a 2 GB
Para Windows SevenOpenSuSe con escritorio KDE, KUbuntu:Mínimo indispensable: 1 GB (con aceleradora gráfica de al menos 512 MB de RAM propietaria)
Mínimo aceptable: 1,5 GB
Sugerido: 2 a 3 GB


3 - DISCO DURO


Antes que nada, vale decir que comúnmente se hace referencia a discos IDE cuando en realidad, IDE es su tipo de conexión disco-motherboard. Es más correcto hablar de PATA Parallel-ATA, en lugar de decir IDE, porque diciendo IDE nos estamos refiriendo a la conexión con la placa (cable de 40 u 80 hilos que va desde el disco a la placa madre), no al tipo de arquitectura física utilizada para manufacturar el disco.
De todos modos, y por respeto a grandes maestros técnicos que prefieren utilizar esta terminología, diremos IDE cuando queramos decir PATA.

A continuación, estableceremos los significados de las siglas utilizadas en estos casos:
IDE: integrated device electronics
PATA: parallel advanced technology attachment
SATA: serial advanced technology attachment
SCSI: small computer system interface
SAS: serial attached SCSI, o bien serial attached small computer system interface

Breve cronología histórica:
- 1983: Primer disco duro de 3.5 pulgadas (no IDE). Fue fabricado por  la empresa Rodime. El modelo fue el RO352, y su capacidad era de 10MB.
- 1990: Primer disco IDE de 3.5 pulgadas, de 40 conectores. Poseía una rotación de 5400 RPM (revoluciones por minuto). Fue producido por Western Digital, y su modelo fue el mítico "Caviar". En ese entonces, los modelos de discos similares no superaban los 540 MB aún.
- 1992: Seagate pone en el mercado los discos IDE Barracuda, los primeros en poseer una rotación de 7200 RPM. Su capacidad de almacenamiento era de 2 GB, suficientes para albergar a Windows 98 y los primeros Sistemas Linux, por ejemplo.
- 1996: Seagate introduce su modelo IDE "Cheetah", el primero en alcazar las  10000 RPM (las cuales hoy en día siguen siendo más que aceptables).
- 1997: IBM produce un disco IDE de 16.8GB, perteneciente a la famosa familia "Deskstar", el 16GP Titan.
- 2000: Seagate produce el primer disco IDE de 15000 RPM, el "Cheetah X15", el cual sigue superando hoy la velocidad de un disco IDE contenido en un PC común de hogar.
- 2003: Western Digital produjo el primer disco duro SATA de 10000 RPM, de 37GB de capacidad, el "Raptor".
- 2005: Primer disco duro de 500 GB, fabricado por Hitachi.
- 2006: Western Digital lanza su disco duro SATA de 150 GB y 10000 RPM, el "Raptor X". Los discos IDE se siguen fabricando mientras tanto, a similares velocidades y mayores capacidades de almacenamiento que los SATA, pero con menor desempeño (performance). Primer disco duro de 750 GB, de Seagate.
- 2007: Aparece el primer disco duro de 1 TeraByte (TB), de Hitachi.
- 2008: Primer disco duro de 1.5 TB, de Seagate.
- 2009: Western Digital lanza el primer disco duro de 2 TB.
- 2010: Primeros discos duros de 3 TB producidos por Seagate y Western Digital.
- 2011: Nuevamente Seagate aparece como líder, lanzando el primer disco duro de 4 TB.


Para finalizar con este punto, les dejo unos párrafos tomados directamente y sin alteración de Wikipedia, sobre las dos tecnologías más utilizadas hasta el momento: IDE (ya en franca decadencia) y SATA, en todas sus variantes.

Tipos de conexión:

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:

 - IDE: Integrated Device Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.

 - SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: 
   - SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo 
margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.

 - SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. 
Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.

 - SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede 
gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando 
costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

Después de haber analizado toda esta información: ¿a qué conclusión debemos llegar?

1. CAPACIDAD (ESPACIO) ["tamaño"]
Hoy en día, el ordenador es el centro multimedia por excelencia. No hay otro aparato que nos permita reproducir, grabar y editar audio, video e imagen, utilizar aplicaciones de entretenimiento como los asombrosos juegos de última generación, etc.
Todo lo mencionado anteriormente necesita espacio en donde permanecer. Y el Sistema que administre todo este material, necesitará más espacio aún para codificar, procesar, y en definitiva, trabajar con todo ello. Además necesitará suficiente espacio libre para desplegar sus archivos temporales, de información, de registro, etc.
La conclusión se asoma: cuanto más espacio, mejor.
Pero: ¿a qué parámetros debemos ajustarnos para no caer en el exceso?
La relación de espacio y rendimiento viene ligada a otra relación: Sistema a utilizar y utilización del mismo.
Para Windows XPOpenSuSe con escritorios XFCE o LXDE, XUbuntuLUbuntu:Mínimo irrisorio: 20 a 30 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 30 a 40 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 60 a 80 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 160 GB para un uso irrestricto.
Sugerido: 200 a 320 GB
Para Windows VistaOpenSuSe con escritorio Gnome, Ubuntu Desktop Edition:
Mínimo irrisorio: 40 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 40 a 60 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 80 a 120 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 200 GB para un uso irrestricto.
Sugerido: 360 a 500 GB
Para Windows SevenOpenSuSe con escritorio KDE, KUbuntu:
Mínimo irrisorio: 40 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 40 a 60 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 80 a 160 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 500 GB para un uso irrestricto.
Sugerido: 500 GB a 1 TB
2. ARQUITECTURA
En segundo lugar entrará en juego la arquitectura utilizada: PATA (IDE) o SATA. Los discos SATA son más eficientes, pero a su vez, cuanto más grandes son y más velocidad poseen, más calor disipan. Es bueno ver los factores que hacen la diferencia entre una y otra tecnología, a los efectos de convencernos del porqué una de las dos es la mejor entre ambas.
CABLES SATA:
Estos cables son mucho más delgados (5 cm. de ancho contra los 8 mm. de ancho del cable IDE del PATA), y más resistentes y fiables en cuanto a la transmisión de datos. También son más resistentes a los daños producidos por apretones, cortes, presiones ejercidas sobre el mismo, pinzamientos, etc.
Poseen 7 conectores (pines), contra los 80 hilos del IDE. Cuanto menor cantidad de cables, menor posibilidad de interferencia, ruido y distorsión potencial. Además están mejor aislados que los IDE, por consiguiente, los datos que transporte estarán dentro de un canal más conveniente.
Favorecen la ventilación interna del ordenador al dejar fluir el aire generado por los ventiladores. A su vez, los discos SATA disipan más calor que los PATA, y muchos de ellos necesitan refrigeración mecánica complementaria. Por lo tanto, si este es tu caso, aquí no habrá diferencia sensible al respecto. Es decir que, favorecer la ventilación generando más calor es similar a no favorecerla generando menos calor. De todos modos me inclino por la variante SATA, aunque necesite refrigeración in situ.
DISCOS SATA:
Estos discos no necesitan puentes o jumpers para su configuración. Es decir que el concepto PATA de establecimiento de categoría de disco maestro primario y secundario y esclavo primario y secundario, ya no es importante, pues se automatiza en los discos SATA.
Soportan hot-plug, es decir, se pueden conectar con el ordenador apagado, o bien ya cuando está en funcionamiento el Sistema Operativo.
La tecnología SATA brinda mayor comodidad, fiabilidad y facilidad en el intercambio de unidades. Esto hace que cambiar un disco sea tan sencillo como desconectarlo y conectar el siguiente, aún con el Sistema Operativo funcionando.
Como se verá debajo, SATA brinda mayor capacidad y velocidad -potencial y real- que PATA.
3. VELOCIDAD
Tomemos como base que los discos PATA (IDE), conectados con cables de 40 hilos, operan en modo PIO, ofreciendo una tasa de transferencia de entre 3,3 y 16,7 Mb/s (Megabit por segundo).
Esta tasa de transferencia fue mejorada con la introducción de la tecnología Ultra DMA para discos del mismo tipo, utilizando conectores de 80 pines (el doble que en el modo PIO), y operando a valores entre el mínimo ofrecido por la tecnología predecesora (16,7) y alcanzando los 133 Mb/s.
Ahora bien, es de suponer que la tecnología SATA es superior por alguna razón, ¿no es así?
Por lo tanto diremos que SATA, en su revisión 1 (SATA1), opera a 1,5 Gigabit/s (¡más de 10 veces más rápido que el Ultra DMA más veloz!), en su revisión 2 (SATA2), lo hace a 3 Gb/s (el doble que su predecesor), y la revisión 3 (SATA3), alcanza los 6 Gb/s (el cuádruple del SATA1 y el doble del SATA2).
4. ADMINISTRACIÓN ENERGÉTICA
Los discos SATA, conforme mayor capacidad y velocidad van ofreciendo, más calor van generando. A partir de los 500 GB inclusive, cualquiera sea su velocidad, te recomiendo agregarle un sistema de enfriamiento a tu disco duro. Este sistema no consiste más que en otro ventilador que se le agrega internamente al PC (como mínimo todos los PC tienen 2 a 3 ventiladores en su interior), y su ubicación es en la parte inferior del disco, justo debajo de la controladora de hardware del mismo (circuito integrado de la placa del disco).
Han sido expuestos los argumentos necesarios para las llegar a las conclusiones más favorables. Como dicen los angloparlantes: I'ts your choice!


4 - ACELERADORA GRÁFICA



Bienvenidos a la parte de la publicación que me llevó más tiempo. Fue difícil construír este apartado en particular. No se dispone de suficiente información que quede a la mano en Internet, ni está ordenada en un mismo lugar, ni siquiera en algún grupo reducido de lugares. Tuve que investigar muchísimo antes de poder presentar algo coherente y razonable. De antemano, me excuso por cualquier omisión involuntaria. Garantizo la responsabilidad y la dedicación que el tema merece, el cual, si bien podía haber sido abordado desde diferentes ángulos, creo que desemboca en un lugar común y defendible, que es lo que verdaderamente importa. Voy a publicar el artículo y me iré a fumar. Estoy contento y ansioso por dejar esta información en 
Internet. Hoy siento que estoy haciendo un aporte que realmente es novedoso a la fecha, en su conjunto. Que tengas un buen día.

INTRODUCCIÓN:
Hasta los años '60, el medio visual existente para desplegar información era el papel impreso. No existía otro administrador gráfico que la impresora. Hay que recordar que los aparatos de televisión hacía muy poco tiempo que comenzaban a aparecer tímidamente y a pasos lentos y pequeños. Aproximadamente en el año 1930 se comienzan a fabricar los televisores. Y este revolucionario dispositivo tendrá que esperar 10 años al menos para comenzar a proliferar en los países económicamente más desarrollados de esa época (Inglaterra, Francia, Estados Unidos), y dentro de ellos, en los hogares de las familias más adineradas.

Las primeras tarjetas gráficas fabricadas pocos años antes de la década del '70, solamente podían mostrar texto a 40 u 80 columnas por 25 renglones, hasta la aparición de los primeros procesadores gráficos.
El dominio informático a nivel de hogares, a fines de los '70 y principios de los '80, curiosamente, no lo ostentaba el clásico PC que hoy día conocemos. Este universo era propiedad de los ordenadores personales -término que se confunde con el de "Personal Computer", pero que en realidad es anterior al mismo-, tales como el maravilloso Commodore 64, el Commodore 128, el Commodore Amiga, El Sinclair Spectrum, el TK90 y el TK95, el Apple II, el Atari 800...

Estos computadores ya utilizaban aceleradoras gráficas internas, y tenían la capacidad de utilizar el televisor como monitor, cosa que hasta hace pocos años era bastante difícil de lograr en los PC convencionales de hoy. Recuerdo que el padre de un gran amigo, a principio de los años '90, le había comprado a su hijo un PC con procesador Intel i386 de 33 MHz operado por D.O.S., y que era unas 30 veces más potente que el querido Commodore 64 con su MOS6510 que me había regalado mi primo...
El Commodore, siendo más lento, más obsoleto y menos futurista que el Intel i386, podía reproducir sonido en estéreo, mostrar gráficos y dibujos a todo color, acceder a cintas de casete baratos y convencionales para guardar y leer datos, y disponía de una gama muy alta de aplicaciones multimedia y de entretenimiento (¡y hasta había software para uso profesional y de negocios!), por lo cual, cuando estábamos frente a ese flamante PC, yo pensaba... ¿pero qué sentido tiene haber gastado tanto dinero en esta basura máquina? ¿Ésta es la maravilla de la computación? ¿Una pantalla negra con un cursor a la espera de crípticas instrucciones, con un sonido latoso, monoaural, proveniente de un microparlante de 1 Watt adosado a una plancha de metal, y todo ello ocupando tanto espacio y siendo tan pesado y difícil de configurar y manipular?

Pues bien, esa pesada carcaza metálica que albergaba dispositivos hoy arcaicos, fue evolucionando. Esa bacteria imberbe, ese microorganismo unicelular, fue la reina del darwinismo microeléctrico. Y los príncipes fueron sus dispositivos.

Hasta principios del año '84 aproximadamente, el estándar de video para el PC era la tarjeta monocromática de baja resolución, como ya se ha mencionado, pero ya a fines de este mismo año comenzaron a aparecer las tarjetas de 16 colores (¡aún sin poder alcanzar la calidad de imagen de la Commodore 64!), y ya entre el '87 y el '89, los entusiastas disponían de resoluciones que iban desde el mítico 640 x 480 hasta la recientemente obsoleta de 1024 x 768 píxeles, con hasta 65000 colores.

En los años '90, comenzaron a aparecer las primeras tarjetas 3D, y hubo que reinventar la arquitectura del hardware: en el año '96, IBM inventó el puerto AGP, el cual permitió dar un salto cualitativo en el área de la cual estamos hablando, puesto que los puertos ISA y PCI que hasta el momento se utilizaban para dichos fines, habían alcanzado su potencial máximo y no permitían la evolución gráfica. En este punto dejaremos la historia para pasar a datos más concretos.

Nos centraremos únicamente en los dos fabricantes más importantes de tarjetas gráficas de hoy en día, para no hacer demasiado extenso este capítulo. Los mismos serán ATI (absorbida por AMD en el año 2006) y nVidia, y sus respectivos modelos más extendidos: Radeon y GeForce, respectivamente. También cabe mencionar que se tomarán en cuenta aquéllos modelos con arquitectura AGP (Accelerated Graphics Port) como punto de partida, porque a partir de aquí comienza la verdadera historia de la aceleración gráfica, y por seguir siendo válido este tipo de conexión hoy en día.

Breve cronología histórica:
AÑO 1999:

- Los monitores CRT (cathode ray tube) y LCD (liquid crystal display) son los dispositivos de salida gráfica más frecuentes.
- Los monitores "plasma" comienzan a proliferar.
- Aparición del puerto DVI (Digital visual interface)
- Primeras aceleradoras gráficas con memoria DDR y conexión AGP
- Estándar de memoria para el momento: 32 Mb
nVidia: GeForce 256

AÑO 2000:
- Estándar de memoria para el momento: 64 Mb
ATI: Radeon 256, VE/7000, 7500
nVidia: serie GeForce2

AÑO 2001:
- Primeras aceleradoras gráficas AGP x8
- Se incorpora un novedoso sistema de renderizado: pixel shader
ATI: Radeon 8500, 9000 y 9200/9250
nVidia: serie GeForce3

AÑO 2002:
- Estándar de memoria para el momento: 128 Mb
Radeon: 9500, 9550, 9600, 9600 XT, 9800, 9800XT, X300, X600
nVidia: serie GeForce4

AÑO 2003:
- Aparición del puerto HDMI (High definition multimedia interface)
- Primeras aceleradoras gráficas con memoria DDR2
nVidia: serie GeForce FX

AÑO 2004:
- Se incorpora un novedoso sistema de realce de imágenes: HDRI (high dynamic range imaging)
- Primeras aceleradoras gráficas PCI-EXPRESS.
- Primeras aceleradoras gráficas con tecnología SLI (Scalable Link Interface) y PureVideo.
- Primeras aceleradoras gráficas con memoria DDR3
- Estándar de memoria para el momento: 256 Mb
ATI: Radeon X800 XT PE, tarjetas Radeon serie X850
nVidia: serie GeForce 6

AÑO 2005:
- Se mejora el renderizado: aparece el supersampling
- Debido al surgimiento del velocísimo puerto PCI-Express en el año anterior, comienzan a dejar de fabricarse aceleradoras gráficas para el aún robusto, veloz y potente puerto AGP
- Estándar de memoria para el momento: 512 Mb
ATI: Radeon X1800 XL, X1800 XT, X1900 GT
nVidia: serie GeForce 7

AÑO 2006:
- Primeras tarjetas con memoria DDR4
- AMD absorbe a ATI.
- Estándar de memoria para el momento: 768 a 1024 Mb
AMD: Radeon X1950XTX, X1950PRO
nVidia: serie GeForce 8

AÑO 2007:
AMD: Radeon R600 (más conocido como serie HD 2000), HD 2900 XT, HD 3870

Año 2008:
- Primeras aceleradoras gráficas de doble núcleo
- Estándar de memoria para el momento: 896 a 1536 Mb
AMD: Radeon HD 3870 X2, HD4650, HD4670, HD4830, HD4850, HD4870
nVidia: series GeForce 9 y nVidia GeForce 100
Poco tiempo después, nVidia lanza al mercado las series GeForce 200 y 300

AÑO 2009:
- Parece ser éste el año en donde comienzan a difundirse vigorosamente en los países económicamente más fuertes las primeras pantallas LED. Lamentablemente no encontré fuentes muy confiables ni información seria y prolija como para asegurar que esto haya sido exactamente así, pero sí puedo asegurar que, al menos, la información es muy aproximada.
- Primeras tarjetas con memoria DDR5
- Estándar de memoria para el momento: 1024 a 2048 Mb
AMD: Radeon HD 5870

AÑO 2010:
AMD: Radeon HD 5770, HD 5750, serie HD 6000
nVidia: Serie GeForce 400 y 500

AÑOS 2011 y 2012:
- Estándar de memoria para el momento: 2048 a 3072 Mb
AMD: Radeon serie HD 7000

Después de haber leído y comprendido toda esta información: ¿a qué conclusión debemos llegar?

1. Hay que tener en cuenta, es que cuanto más memoria propietaria tenga la aceleradora, mejor será para el rendimiento de las aplicaciones multimedia y del equipo en sí. De otro modo, la misma estará sometida a trabajar con la memoria RAM del PC, quitándole recursos al ordenador entero. Hay que tener en cuenta que no siempre se utiliza toda la memoria disponible de la placa, ni toda la memoria disponible en el equipo. Agregarle a mi PC 16 GB de RAM no lo hará más rápido sino más costoso si yo ya disponía de una cantidad de RAM razonable. Lo mismo sucede si adquiero una aceleradora con excesiva capacidad de memoria propietaria si al final no voy a instalar los juegos fabricados en el mismo mes en el cual compré la tarjeta. Hay que ser cauteloso con esto. Espero ser comprendido. Lo razonable es adquirir una aceleradora gráfica con 1 o 2 GB de memoria propietaria tipo DDR4 o 5 si es posible.

2. Hay que preferir PCI-Express antes que AGP, aunque esto no es solo una cuestión de gustos. Si tu PC se fabricó hace algunos años, hay grandes posibilidades que utilice tecnología AGP para la expansión del video, o bien tal vez no disponga de ningún zócalo para la aceleración gráfica. Si, por el contrario, tu PC es nuevo, puedes tener la seguridad que podrás instalar sobre seguro casi cualquier aceleradora PCI-Express. Cuidado con la fuente del equipo: cuanto mayores prestaciones ofrecen las PCI-Express, mayor potencia
consumirán. Es posible que tengas que actualizar la fuente de poder del equipo, en potencia y calidad, si piensas en agregarle una aceleradora gráfica muy potente a tu PC. Por otra parte, la placa (motherboard), puede no soportarla.

3. Si tu procesador y tu placa van en consonancia con AMD (Advanced micro devices), entonces es mejor que elijas aceleradoras gráficas AMD o ATI (son la misma cosa). Si no es así, y tu máquina dispone de procesador Intel y placa madre nVidia, por ejemplo, es mejor que escojas aceleradoras gráficas nVidia. Este punto ya es discutible. Tómalo como un consejo en lugar de tomarlo como una recomendación.

Espero haber sido claro. Envíame tu impresión si no es así... ¡y si es así, tambien! jeje



  II - DISPOSITIVOS RECOMENDADOS   


5 - UNIDAD ÓPTICA (CD/DVD)
No será necesario ahondar demasiado en este apartado del artículo. Si vas a comprar una torre o una computadora de escritorio, observa que si no tiene unidad óptica, tu máquina será incompatible con uno de los medios más populares de intercambio de información: el disco compacto. Y me refiero tanto al CD como al DVD.
Pero este caso es mucho más delicado si vas por una laptop o notebook. Muchas de ellas traen un combo óptico que lee CD y DVD pero no graba... Por lo tanto la situación que se produce es similar... Imagina que el disco duro de tu computadora se va llenando de fotos, videos, películas, imágenes, música, archivos, datos de todo tipo... Hasta que no queda suficiente espacio para el correcto funcionamiento del Sistema y se enlentece de manera considerable el computador. Dices: "Bien, esto es sencillo: haré un respaldo de la información que esté ocupando mayor espacio y a continuación eliminaré esos datos del disco duro". Cuando lo vas a hacer te das cuenta que no dispones de grabadora de DVD... ¿Echarás mano a todos tus pendrives, memorias flash y demás? ¿Irás corriendo a comprarte un disco duro externo USB de 500 GB para salvar la situación?
Este es el caso de las netbooks.

En cualquier caso, es altamente recomendable que tu ordenador disponga de una unidad óptica capaz de leer y grabar CDs y DVDs.

Es preferible además, que soporte Dual layer, que es la función de leer y grabar un DVD por ambas caras.

Si además esa unidad puede leer y/o grabar Blu-ray, mejor. Esta tecnología permite el procesamiento de video de altísima definición, y el almacenamiento en gran densidad de datos (entre 23 y 54 GB de capacidad).

Y si, como corolario, dispone de tecnología Lightscribe para imprimir mediante un láser interno la carátula del disco una vez grabado el mismo, ¡mejor aún!



6 - RED (Ethernet) [Internet]



Aquí hay que considerar algunos factores de especial importancia.
En primer lugar, hay que tener claro de qué manera tu computadora se conectará a Internet, y existen varios modos para ello. Dichos modos podrían ser: por vía cableada (conectores RJ45), por fibra óptica, o bien por conexión inalámbrica PCI o USB, solo por citar los modos que creo que son más populares.


A continuación, estableceremos los significados de las siglas utilizadas en estos casos, y mínimos conceptos básicos fundamentales:
UTP: unshielded twisted pair
Mbps: es lo mismo que Mb/s, Mbit/s y Mbit/seg, y significa Megabit por segundo. 1 Megabit representa 1000 kilobits (Kb) o 1 millón de Bits. Hay que poner especial atención de no confundir el Megabit con el MegaByte, ya que a este último se lo referencia con las dos letras en mayúscula (MB), y representa una unidad 8 veces mayor, es decir que, hablar de 1 MegaByte por segundo (MB/s), equivale a hablar de 8 Megabits por segundo (Mb/s).
GPRS: General Packet Radio Service (servicio general de paquetes vía radio).
EDGE: Enhanced Dara Rates of GSM Evolution (tasas de datos mejoradas para la evolución de GSM). Es más conocido -y menos complicado- como EGPRS (Enhanced GPRS).

VELOCIDADES DE LAS DIFERENTES TECNOLOGÍAS:
Ethernet opera a 10Mb/s, Fast Ethernet a 100 Mb/s, y Gigabit Ethernet a 1000 Mb/s.
UTP 3 opera a 10 Mb/s y UTP5 a 100 Mb/s.
10/100 significa que tanto la tecnología utilizada con el cableado UTP 3 (10) como la utilizada con el UTP 5 (100) son compatibles con este modo.


1. Conexión por cable
INTRODUCCIÓN TÉCNICA
Actualmente existen pocos modos convencionales para conectar un ordenador doméstico a Internet. Los más difundidos, hoy en día, son el 100BaseT4 que utiliza cable UTP de categoría 3, y el 100BaseTX con cable UTP de categoría 5. Ambas tecnologías utilizan el mismo tipo de conexión, pero poseen diferente velocidad y ancho de banda en tramos directos de hasta 100 metros de longitud. En ambos casos estamos hablando de cables del mismo tipo, es decir, de par trenzado. La diferencia es que el de categoría 3 es capaz de transportar datos con fidelidad a velocidades del entorno de los 10 Mb/s, mientras que el de categoría 5 lo hace 10 veces más rápido.
CONEXIÓN 10/100 (Fast Ethernet)En los países menos desarrollados de latinoamérica, por ejemplo, (y no necesariamente en los más sumergidos), el estándar es la conexión 10/100 que utiliza los estándares descritos arriba.
De modo que cualquier enrutador (router), concentrador (hub) o conmutador (switch) -nuevo, de fábrica- que se venda en plaza, bastará para tener una conexión a Internet decente. La tarjeta que utilizará la PC será del mismo tipo: placa de red PCI o PCI Express 10/100.
Lo que debes hacer, en primer lugar, es averiguar a qué velocidades trabajan las compañías telefónicas que brindan servicio a Internet cableado en tu país y, a continuación, elegir el plan que más te convenga y puedas pagar. Si estamos hablando de Kilobits o Megabits, cualquier tarjeta PCI 10/100 que le instales al ordenador será más que suficiente.
Para comprender un poco mejor aquéllo de lo cual estamos hablando, dejo un enlace aquí a la página oficial de ANTEL, la empresa más importante de telecomunicaciones de Uruguay, en donde pueden verse los planes que se ofrecen hoy en día a los uruguayos:
2. Conexión por fibra óptica y de alta velocidad por cable
CONEXIÓN 10/100/1000 (Gigabit Ethernet)
I) En el caso de los países en donde el cableado que va desde el proveedor de Internet hasta la central más cercana a tu domicilio, seguramente se utilizan conexiones con velocidades medidas en Gigabits. En este caso hay que pensar en una tarjeta PCI o PCI Express 
10/100/1000 (Gigabit  Ethernet), puesto que con una 10/100 (Fast Ethernet), como se comprenderá si se ha leído el apartado de arriba, se producirá un "cuello de botella" o enlentecimiento bastante notorio de la velocidad de transferencia de la conexión.
Las conexiones por cable que pueden alcanzar valores de transmisión del entorno de los 1000 Mb/s en 100 metros ininterrumpidos (directos), utilizan cable de 4 pares trenzados, de categoria 5e o UTP 6 en modo 100BaseT.
Imagen: http://es.startech.com/Industriales-ES/Adaptadores-Red/Tarjeta-de-Red-Ethernet-Gigabit-10-100-1000-a-PCI-de-32-Bits-de-1-Puerto~ST1000BT32

II) Hay casos en que los afortunados internautas disponen de una costosa y velocísima estructura de red que llega hasta su módem o router, y que se basa exclusivamente en la fibra óptica.
Es aquí en donde conviene instalarle a nuestro ordenador una tarjeta de red para fibra óptica, como la que se ve en la figura de abajo.


Imagen: http://www.ovislink-espana.com/index.php?sec=4_int&cat=12&fam=14&prod=39&family=Tarjetas-de-red&product=Tarjetas-de-red-Fibra-%D3ptica&model=FE-100T
Las conexiones de fibra óptica alcanzan valores de transmisión de los 1000 Mb/s en tramos de entre 550 y 5000 metros, en modos 100BaseSX y 100BaseLX.

3. Conexión inalámbrica PCI o PCI-Express:
Nota inicial: dentro de este apartado, nos referiremos indistintamente, salvo por mención expresa, tanto a dispositivos PCI como a PCI-Express, denominándolos simplemente "PCI", y no necesariamente haciendo hincapié acerca de a cuál de ellos nos estaríamos refiriendo.
La conexión de red también puede establecerse sin cables (al menos el tramo que va desde la computadora hasta el módem o enrutador, por ejemplo). Este modo se denomina "inalámbrico" WiFi (no es una sigla, sino un nombre, y hace referencia al modo de conexión IEEE 802.11x, en donde "x" representa cualquiera de los  modos admitidos por esta tecnología, tales como 802.11 b -11 Mb/s-, 802.11g -54 Mb/s- u 802.11n -600 Mb/s-) o simplemente WireLess ("sin alambres").
"PCI" o "PCI-Express", es la tecnología de hardware utilizada para la fabricación de la placa o tarjeta de red. Generalmente, los PC que se fabrican hoy en día siguen manteniendo en sus placas madre o motherboards las viejas y fieles ranuras o slots PCI, aunque con predominio de conectores PCI-Express, que son los que llevan la delantera en el aspecto tecnológico de esta materia.
Hay al menos 2 factores a tener en cuenta al proponernos instalar un dispositivo de red inalámbrico PCI en nuestro PC.
I) Velocidad de transferencia de datos necesaria
Como se describe más arriba, cada paso que se ha dado en la velocidad y fiabilidad de transferencia de datos a nivel inalámbrico, ha sido identificada con una letra diferente en cada caso, debiendo atenderse esta nomenclatura a la hora de hacer nuestra elección.
Los modos de transmisión de la tecnología IEEE 802.11x son los que citaré a continuación, y utilizaré para ello el siguiente formato: año de implementación, modo, y velocidad. No serán tenidos en cuenta los modos especiales como el 802.11c, por ejemplo, que es utilizado para conectar redes WLAN (WireLess Local Area Network) de diverso tipo, o el 802.11d, u otros que no resuelvan intereses o necesidades del usuario común o estándar, de hogar o empresa.
1997,  legacy,   2 Mb/s
1999,  modo a,  54 Mb/s
1999,  modo b,  11 Mb/s
2003,  modo g,  54 Mb/s
2004,  modo n, 600 Mb/s
II) Modos de transmisión inalámbrica soportados por el enrutador (router) o módem.
El ordenador y el elemento de red que esté conectado a él, necesitan comunicarse mediante los mismos modos y protocolos.
Es mejor informarse acerca de los modos soportados por el enrutador o conmutador al cual será conectada nuestra PC, para, en función de ello, conseguir la mejor tarjeta de red para nosotros.
Por otra parte, si aún no poseemos router o switch, podríamos hacer al revés: conseguir un enrutador o conmutador en función de nuestra tarjeta de red inalámbrica, o bien, actualizar la tarjeta si ésta no fuese la más adecuada para nuestras necesidades y para la inversión total que representará todo ello en conjunto.

4. Conexión inalámbrica USB (USB WireLess)
De entre todos los modos posibles de conexión de red por USB, solamente citaremos unos pocos: los más usuales.
I) El módem USB de banda ancha móvil.
Este tipo de dispositivo, en la gran mayoría de los casos, es distribuido por proveedores de telefonía móvil (movistar, vodafone, ancel, etc.). Su principal objetivo es el de proveer de servicios de red (Internet) a casi cualquier ordenador, y en casi cualquier lugar más o menos densamente habitado del planeta.
Su uso es más práctico y recomendable para computadoras portátiles no estacionarias (notebooks, netbooks), puesto que sus prestaciones -en materia de fiabilidad, conectividad, intensidad de la señal y ancho de banda- son inferiores en mayor o menor medida a las prestadas por el medio cableado. Por supuesto que un buen 'contrato' de Internet de banda ancha móvil será preferible a un pésimo 'contrato' de Internet por cable, pero, si comparamos tanto las peores como las mejores prestaciones de ambas tecnologías entre sí -escala por escala-, veremos que siempre es superior y preferible la conexión por cable, a menos que necesites moverte frecuentemente con tu ordenador a cuestas. Sin lugar a dudas, en este último caso, tu elección no deberá ser muy meditada: la banda ancha móvil será tu mejor (o tal vez única) opción.
Generalmente, los 'planes' o 'contratos' de gama baja y media más usuales de banda ancha móvil, proporcionan velocidades a partir de los 512 kb/s de bajada y 128 kb/s de subida, con cupos de descarga del entorno de los 5 GB mensuales en adelante, llegando en estos momentos a proporcionar -en las mejores posiilidades existentes-, contratos de banda ancha móvil de 10240 kb/s de bajada (10 Mb/s), 512 kb/s de subida, y un cupo de consumo de 100 GB mensuales.
Aquí dejo un enlace con tarifas y velocidades suministradas por ANTEL en Uruguay:
II) El uso del celular como módem.
Si no tienes previsto el uso diario y masivo de Internet (!?!?!?), o bien si necesitas salir de un apuro o sacar de un aprieto a alguien, o no tienes más remedio que utilizar momentáneamente este método, puedes optar por esta opción. Los teléfonos celulares que se conectan a Internet -ya sea por WiFi a una red de ordenadores, o por GPRS o EGPRS (EDGE) a una red de teléfonos móviles-, pueden brindar conexión a un tercero, como sería el caso de un ordenador.
Si configuras correctamente el Sistema Operativo de tu computadora para que detecte y se comunique con el módem interno de tu teléfono celular, y a su vez configuras tu móvil para que pueda brindarle acceso a Internet a tu PC, también podrás navegar por la web con tu ordenador utilizando este ingenioso aparatito que es, en sí, un módem portátil.
III) Adaptadores USB inalámbricos (WireLess USB adapters) [antenas y otros].
Son dispositivos que agregan funcionalidad inalámbrica al PC sin necesidad de instalación de ningún tipo de accesorio interno de características privativas, particulares y predestinadas a una sola máquina. En este sentido, estos adaptadores son muy diferentes a las placas de red PCI, puesto que pueden ser transportados con facilidad de un lugar a otro (es pequeño, liviano, estandarizado, altamente compatible, práctico), y es capaz de detectar conexiones de red allí donde haya un router o access point con emisión inalámbrica "visible".



7 - PUERTOS O CONECTORES USB


Los Sistemas Operativos que surgieron poco antes o poco después del año 2000, se pensaron para trabajar en conjunto con esta tecnología que permitía conectar un dispositivo sin tener que hacer cambios importantes, ni utilizar software adicional para ello, salvo, y en ocasiones, los controladores que se necesitasen para el caso, como es normal.
Dentro de la línea de Microsoft, ya desde Windows 2000 en adelante, generalmente no era necesario reiniciar el ordenador tras la instalación de un periférico USB, puesto que, tanto el Sistema Operativo como el dispositivo USB, ya estaban preparados para trabajar en conjunto y poder brindarle al usuario la posibilidad de utilización inmediata de casi cualquier elemento USB.
Esto es conocido como plug and play (la traducción en español sería algo así como "conectar y usar"), lo que significa que el elemento que se está conectando no necesita intervención del usuario en cuanto a ajustes y configuración inicial).
La tecnología USB también posibilita el hot plug (en español sería algo parecido a "conexión en caliente" o, dicho con más precisión y respeto (*) "conexión sobre la marcha", lo cual indica que no habrá que apagar el ordenador durante la conexión del dispositivo).
En el año 1994 comenzaron a aparecer los primeros conectores USB 1.0. Ofrecían una velocidad para el flujo de datos de 1,5 Mb/s (MegaBits por segundo), y en principio, fueron pensados para conectar dispositivos con bajo consumo de ancho de banda o de flujo de datos moderado a bajo.
En 1998, la primera revisión llegó al usuario a través del USB 1.1. Éste modo ampliaba el caudal de transporte de datos casi 10 veces en comparación con su antecesor, llegando a los 12 Mb/s, y logrando otro avance extra tecnológico: comenzó a ser adoptado como elemento estándar en las computadoras comunes a partir de aquí. La compatibilidad con 1.0 se mantuvo.
2 años más tarde apareció el USB 2.0. Aquí las mejoras se hacen notar con fuerza: una velocidad 40 veces superior (hasta 480 Mb/s), una proliferación masíva -ya demandado con exigencia por parte del usuario-, y aún  manteniendo la compatibilidad con sus predecesores.
En 2008, una nuevo cambio ocurrió en esta tecnología. La aparición del USB 3.0 significó -otra vez- una multiplicación por diez en la velocidad de transferencia, llegando a los asombrosos 5 Gb/s (GigaBits por segundo), y solucionando inconvenientes importantes en cuanto a la demanda energética de algunos dispositivos, en donde todos los antecesores se ven superados. ambién se mantiene la compatibilidad con sus homónimos.
El conector USB realmente ha sido una genialidad que, como tantos grandes logros en la historia de la Informática (primer disco duro comercial, por ejemplo), se le debe agradecer a IBM.

IBM no es ni por asomo la única compañía que se ha destacado en esta larga e interminable carrera, pero es una de las empresas que más ha aportado, merced a su dedicación, estabilidad y permanencia, y eso es algo que no debe pasarse por alto. Vaya aquí entonces un pequeño e involuntariamente desapercibido mensaje a International Business Machines.
Finalizando con este apartado, concluiremos en que, de ser posible, deberás intentar que tu nuevo PC posea puertos USB 3.0.
Eso, hoy en día, y en los mercados de los países económicamente menos pudientes, es muy difícil. No porque el cliente no pueda pagar una máquina con puertos USB, sino porque, directamente, casi no existen en nuestros mercados.

Si no tienes posibilidad entonces, de conseguir un PC con esta tecnología, seguro que podrás conseguir uno con puertos 2.0.

En ese caso, te doy un buen consejo: busca computadoras que posean puertos USB delanteros, ya que te ahorrarán varios dolores de cabeza. Resulta bastante molesto andar buscando una conexión USB libre detrás del PC para conectar un teléfono celular, una cámara digital de fotos, un pendrive, o un disco duro externo, por citar solo algunos pocos ejemplos.
Además es posible que, con la tecnología orientada hacia esta clase de conectores, todos tus periféricos necesiten puertos USB libres, utilizando todas las bocas USB traseras, lo que no dejaría lugar para otros dispositivos.
Hay otra cosa que debes saber.
Los energía de los puertos USB internos es proporcionada por la placa base mediante dos vías.
La bus-powered -comúnmente aplicada a los puertos delanteros-, la cual es de baja potencia y solamente permite conectar simultáneamente hasta 4 dispositivos de bajo consumo (teclados, ratones, memorias de diferente tipo que no necesiten sobrealimentación adicional, etc.), y la self-powered, de mayor potencia -comúnmente aplicada a los puertos traseros del ordenador-, que permite conectar simultáneamente hasta 127 dispositivos USB de diverso tipo.
Es decir que conviene informarse acerca de la fuente de alimentación de todos los puertos USB del ordenador, poniendo especial énfasis en si, además de los traseros, también los delanteros son self-powered.
Como verás, en ocasiones, los puertos delanteros serán fundamentales. Pero esto es cuestión del uso que cada quien le vaya a dar al PC.
Así que, nuevamente, it's your choice!
(*) Nótese el popular uso de la palabra hot, en culturas anglosajonas, para definir situaciones y características: hotmail, hotplug, hotline, hot press, hotshot, hotspot.

Esto, en español, suena enormemente vulgar, puesto que no tenemos esa denominación para ningún caso. No se definen, para nosotros, como hot este tipo de situaciones. Hot, en español, también significa caliente, siempre que se hable de calor producido por el sol, el fuego, y fuentes similares de radiación calórica. Pero, en todos los otros casos, significa deseo sexual extremo o enojo extremo. Por eso es que hago el comentario sobre la vulgaridad de este vocablo en culturas hispanoparlantes, y no por ello le quito validez al término anglosajón, aunque debo decir que me parece más correcto y menos comercial el uso de warm en lugar de hot. Es sólo una apreciación personal.




YAPA: si quieres saber cómo identificar las piezas de hardware en una Commodore 128 del año 1985, visita este post sobre emuladores:
http://informatica-hugonapoli.blogspot.com/2014/10/emuladores-viaje-virtual-al-pasado-y.html


Sitios visitados al elaborar el post:

Sobre microprocesadores:
http://www.intel.com/?es_ES_01

Sobre memorias RAM:
http://miprogramacion.wordpress.com/2008/04/17/historia-de-las-memorias-ram/
http://es.wikipedia.org/wiki/Double_Data_Rate
http://www.kingston.com/latam/

Sobre discos duros:

Sobre aceleradoras gráficas:

No hay comentarios:

Publicar un comentario