Mostrando entradas con la etiqueta Cuánto pagar. Mostrar todas las entradas
Mostrando entradas con la etiqueta Cuánto pagar. Mostrar todas las entradas

sábado, 21 de enero de 2012

Guía para comprar una computadora

                    (P) Hugo Napoli, 2012                    


Nota importante: la falta de experiencia me hizo caer en la incorrecta utilización de imágenes. Este es un problema ético que ya estoy comenzando a solucionar. En breve quedará resuelto. Gracias por tu comprensión.

Otra nota importante: el cierre de MegaUpLoad ha dejado inoperantes algunos enlaces de mis post, como le ha pasado a muchísima gente en el mundo. Estoy resubiendo mi material a RapidShare, MediaFire, HotFile, FileServe y GigaSize. Pasarán algunos días hasta que pueda solucionar esto. Algunos enlaces ya están reparados y funcionan correctamente. El resto, aún no. Gracias por tu paciencia.




Hola.
He decidido escribir este artículo en función de la situación que se genera cuando se quiere adquirir un ordenador y se tiene consciencia de lo complejo de la decisión que ello conlleva.
No nos resultará nada sencilla la obtención de datos técnicos de funcionamiento del PC si solamente contamos con el color y la forma de su gabinete como únicos datos surgidos de la observación minuciosa tras varios minutos de indecisión frente a una gama de máquinas que aún no logramos diferenciar con exactitud.

La idea es poder explicar -con un vocabulario más práctico que técnico- los factores a tener en cuenta a la hora de comprar un computador. Todo esto resultará breve, accesible e interesante, si estamos dispuestos a leer sin distracción durante un lapso de tiempo similar al que nos insume ir a hacer las compras al supermercado, o el transcurso de una mañana apacible de un día de descanso primaveral.

Se hablará entonces en términos simplificados y comprensibles, y si bien al principio puede verse muy extenso el artículo, finalmente se comprenderá que la única manera de lograr el cometido propuesto es, sin lugar a dudas, omitiendo información específica o particular que no se aplique al entorno o ambiente del tema tratado, sin dejar de profundizar ni ampliar el espectro en todos aquellos puntos que sea necesario abordar. Esta es una de las pocas razones fundamentales por las cuales decidí que la arquitectura del contenido fuese la de "cronología anidada". Es decir que, siempre que sea necesario, se hará una especie de presentación o introducción de etapas anteriores que resulten mínimamente representativas de cada uno de los temas tratados.

Gracias por leer este contenido. Trataré de incluir siempre información útil y no redundante. A continuación, la información.







Tratando de establecer un estándar, concluí en que son 7 los puntos a tener en cuenta a la hora de adquirir o actualizar un PC, los cuales no están en orden jerárquico, y son los siguientes.

1.  Microprocesador: cerebro del ordenador.
2. Memoria: espacio de residencia de información vital de los programas y área de trabajo del microprocesador.
3. Disco duro: almacén del computador.
4. Aceleradora gráfica: segundo microprocesador del PC, el cual se ocupa de procesar los datos de video enviados por el microprocesador, alivianando notablemente su tarea.
5. Unidad óptica: elemento de introducción y extracción de contenido multimedia y datos.
6. Tarjeta de red: dispositivo que nos permite intercambiar todo tipo de datos con otros ordenadores, y acceder a Internet.
7. Puertos USB disponibles: conectores que permiten integrar a nuestro PC una gama muy extensa de dispositivos electrónicos como teléfonos celulares, cámaras digitales de fotografia y video, unidades flash (pen drives), discos duros externos, dispositivos multimedia, periféricos en general, ...

A continuación, hablaré de cada uno de ellos.
La idea es comprender el qué y el por qué de esta tarea. No es necesario ser técnico para ello. Solo es necesario comprender qué representa cada pieza para el conjunto entero, cuáles son nuestras posibilidades para elegir lo que mejor se adapte a nuestras necesidades, y algo de audacia y ganas.






  I - DISPOSITIVOS FUNDAMENTALES   

1 - MICROPROCESADOR





Brevísima cronología histórica:
- 1980: primer procesador de difusión masiva de 32 bits [AT&T Bell Labs BELLMAC-32A]
- 2002-03: primeros procesadores de difusión masiva con tecnología Hyper-threading [Intel Pentium IV, Intel Xeon DP, ...]
- 2003-04: primer procesador de difusión masiva de 64 bits [AMD 64-bit IA-32]
- 2004: primer procesador de difusión masiva de doble núcleo de 32 bits: dual-core AMD Opteron
- 2005-06: primeros procesadores de difusión masiva de doble núcleo [Intel Itanium 2, AMD x86 64-bit 90-nm dual-core, Sun Microsystems UltraSparc IV+, Pentium IV Extreme Edition 840, AMD Opteron, Pentium D (modelos 820, 830, 840, 920, 930, 940 y 950, AMD Athlon 64 X2 (modelos 3900+, 4200+, 4400+, 4600+, y 4800+), Intel Xeon, ...]
- 2007-09: primeros procesadores de difusión masiva de 4 núcleos [Intel Core 2 Quad (modelos Q4400, Q6600, Q49650 y 9300), Intel Xeon 3200, Intel Q6700, Intel Core2 Extreme Quad (modelos SX9650, QX9770), AMD Phenom (modelos I y II), AMD Opteron EE 45nm, ...]

El procesador es uno de los dispositivos que guardan relación más directa con las tareas que le serán encomendadas al PC. Para diferentes tipos de uso, habrá diferentes tipos de procesadores.
Teniendo claras cuáles son nuestras necesidades informáticas, no será para nada difícil elegir un microprocesador para nuestro uso cotidiano.

1. Si realizas tareas básicas como lo es la navegación por Internet, el chat, envías y recibes correos electrónicos, visitas a menudo redes sociales como facebook o círculos google, y haces algún que otro trabajo de oficina con Excel, OpenOffice o LibreOffice, por ejemplo, un procesador modesto te será de gran utilidad. Bastará con un procesador de entre 1.8 y 2.5 GHz de velocidad, con arquitectura de 32 bits, de núcleo simple.

2. Si además de las actividades del punto 1 utilizas la PC para ver películas, hacer codificación multimedia (por ejemplo, conviertes películas en formato .avi a .mpeg2 o a dvd para verlas en tu reproductor de DVD o home theatre, o conviertes películas y videos a .mp4 o formatos similares para verlos en tu teléfono móvil, o extraes pistas de discos de música para pasarlas a .mp3 u otros formatos de similares características), escuchas música en la PC a menudo o a diario y a veces juegas a algún juego de requerimientos modestos, un procesador de capacidad algo más elevada hará un buen trabajo. Deberás elegir procesadores entre 2 y 3 GHz de velocidad, con arquitectura de 32 o 64 bits, de núcleo simple (con con hyper threading si es Intel), con true core scalability si es de AMD, o mejor aún, de núcleo doble (x2, dual core, core 2 duo, i3, i5, etc.).

3. Si tu PC tiene que ser capaz de desempeñarse bien en los puntos 1 y 2 y además capturas y/o editas video (grabas programas de televisión directamente desde la PC conectada a tu antena multicanal o al cable de señal de TV cerrada, utilizas tu ordenador para controlar un sistema de cámaras de seguridad, cortas películas, añades efectos de transición y renderizado y otros del mismo tipo), remasterizas, ecualizas o recodificas audio, utilizas tu PC como consola de grabación o de sonido, usas tu PC como centro multimedia y te gusta jugar a menudo a juegos con buena capacidad gráfico-auditiva, no tendrás más remedio que ir por un procesador potente a nivel de hogar. Éste deberá estar entre los 2 y 3 GHz de velocidad, tal vez tener capacidad de overclock automático o manual, con arquitectura de 64 bits, tener dos o tres núcleos (x2, x3, dual core, core 2 duo, i3, cualquiera de los primeros i5, etc.), incluír tecnología hyper-threading si es de Intel, con true core scalability e hyper transport si es de AMD, y por último, poseer no menos de 64 KB de memoria caché L1, no menos de 512 KB de memoria caché L2 y unos 2 a 4 MB de memoria caché L3.

4. También puede que seas un desquiciado del microchip. Puede que no necesites ni siquiera leer los 3 puntos anteriores. ¿Te gusta jugar, eh? ¿Tu PC funciona como centro del Universo ya no en tu casa, sino en tu lugar especial, privado y solo accesible a enfermos como tú o peores? ¿Necesitas un PC que corra cualquier tipo de juego sin siquiera estar informado de los requerimientos del mismo, no? Ok amigo, entonces ve por un procesador de 64 bits, de cuatro núcleos como mínimo (x4, cualquiera de los últimos i5, i7, quad core, core 2 quad). Ponte como meta mínima que cada núcleo corra a 2.2 GHz., y si puedes, trata de superar los 3 GHz. Las tecnologías hyper-threading para Intel, y true core scalability e hyper transport para AMD no serán una opción sino una meta para ti. Y aquí no hablaremos de memoria caché L1 y L2 sino L3 o memoria caché inteligente, la cual deberá tener una capacidad no menor de 4 MB (en lo posible, debes tratar de alcanzar los 8 MB en este sentido). ¡Y no olvides la posibilidad "sine qua non" de overclock automático y manual!

P.D.: lo de "desquiciado" va, evidentemente, en tono jocoso. Sé que para ti resultará un apodo cariñoso y que no te enfadarás por ello. Solo hago la aclaración para algún trasnochado que pueda estar merodeando por Internet a estas horas y sin rumbo ni idea fija... jajajaja


Información adicional:

Arquitectura - Juego_de_instrucciones_en_bits:

X86_16: 16 bits
X86_32: 32 bits
X86_64: 64 bits



2 - MEMORIA RAM







Breve cronología histórica:
- 1997-99: SDR [modelos PC66 (66MHz), PC100 (100 MHz) y PC133 (133 MHz)]
- 2001-04: DDR [modelos PC1600 (200 MHz), PC2100 (266 MHz) y PC3200 (400 MHz)]
- 2004: DDR2 [modelos PC4200 (533 MHz), PC4800 (600 MHz), PC5300 (667 MHz) y PC6400 (800 MHz)]
- 2004-08: DDR3 [modelos PC800 (800 MHz), PC1066 (1066 MHz), PC1333 (1333 MHz), PC1600 (1600 MHz), PC1800 (1800 MHz) y PC2000 (2000 MHz)]

La memoria RAM (o "Random Access Memory"), es el lugar físico en donde reposa la información que el Sistema Operativo y los programas han de tener más a mano, y es también en donde se desarrolla gran parte del flujo de datos que corre en la placa madre, desde y hacia el microprocesador. La memoria jamás se halla en reposo absoluto. La información almacenada en ella, permanecerá allí hasta que el equipo se apague, o bien hasta que los programas -o el mismo Sistema Operativo-, quiten sus datos de allí, por ejemplo, al cerrarse, finalizar una tarea o un proceso, o sufrir -¿por qué no?- un colapso o mal funcionamiento.

Hay que poner especial atención en la forma física de la memoria. Si bien todas sirven para lo mismo, aunque pertenezcan en conjunto a la tecnología DDR, poseen conectores diferentes y no se pueden instalar si no es en un zócalo de igual tecnología o formato físico.
Es decir que un banco de memoria DDR3 no se podrá insertar en un zócalo DDR.

Otro punto a tener en cuenta es que las placas madre a veces vienen preparadas para utilizar tanto la tecnología estandarizada en el momento como la inmediatamente obsolescente, o predecesora, o inmediata anterior.
Si tu placa tiene 2 zócalos DDR y 2 zócalos DDR2, por ejemplo, no pienses que -aunque pueda ser algo razonable-, poniendo 2 bancos de 1 GB cada uno en los 2 zócalos DDR y 2 bancos de 1 GB cada uno en los 2 zócalos DDR2 obtendrás 4 GB en total.
Estas tecnologías no son complementarias, al menos, hasta el momento.
Elige una o la otra, pero no ambas.

Entonces:

1. Cabe decir que cuanto más nueva sea la tecnología. mejor probabilidad de rendimiento mejorado tendremos. Así que si tu placa madre soporta memorias DDR2 y DDR3, es mejor que escojas DDR3.

2. Otro dato importante es la velocidad a la cual opera la memoria. Siempre hay que consultar las especificaciones de la placa madre (mobo, motherboard, placa base), por si existiese incompatibilidad con algún tipo de pieza que se le quiera instalar a la misma, y una vez superado este paso, se deberá observar también hasta dónde el PC es "escalable", es decir, "actualizable", y el grado de conveniencia de dicha empresa, así como su relación de costos y resultados.

3. En función del modelo y el tipo de Sistema Operativo que vayas a utilizar, y al uso que le vayas a dar al ordenador, es que variará la cantidad de memoria a destinar a ese PC. Toma como orientación los siguientes criterios para estar bien centrado:
Para Windows XP, OpenSuSe con escritorios XFCE o LXDE, XUbuntu, LUbuntu:Mínimo indispensable: 384 MB (con aceleradora gráfica de al menos 64 MB de RAM propietaria)
Mínimo aceptable: 512 MB
Sugerido: 784 MB a 1 GB
Para Windows VistaOpenSuSe con escritorio Gnome, Ubuntu Desktop Edition:Mínimo indispensable: 784 MB (con aceleradora gráfica de al menos 256 MB de RAM propietaria)
Mínimo aceptable: 1 GB
Sugerido: 1,5 a 2 GB
Para Windows SevenOpenSuSe con escritorio KDE, KUbuntu:Mínimo indispensable: 1 GB (con aceleradora gráfica de al menos 512 MB de RAM propietaria)
Mínimo aceptable: 1,5 GB
Sugerido: 2 a 3 GB


3 - DISCO DURO


Antes que nada, vale decir que comúnmente se hace referencia a discos IDE cuando en realidad, IDE es su tipo de conexión disco-motherboard. Es más correcto hablar de PATA Parallel-ATA, en lugar de decir IDE, porque diciendo IDE nos estamos refiriendo a la conexión con la placa (cable de 40 u 80 hilos que va desde el disco a la placa madre), no al tipo de arquitectura física utilizada para manufacturar el disco.
De todos modos, y por respeto a grandes maestros técnicos que prefieren utilizar esta terminología, diremos IDE cuando queramos decir PATA.

A continuación, estableceremos los significados de las siglas utilizadas en estos casos:
IDE: integrated device electronics
PATA: parallel advanced technology attachment
SATA: serial advanced technology attachment
SCSI: small computer system interface
SAS: serial attached SCSI, o bien serial attached small computer system interface

Breve cronología histórica:
- 1983: Primer disco duro de 3.5 pulgadas (no IDE). Fue fabricado por  la empresa Rodime. El modelo fue el RO352, y su capacidad era de 10MB.
- 1990: Primer disco IDE de 3.5 pulgadas, de 40 conectores. Poseía una rotación de 5400 RPM (revoluciones por minuto). Fue producido por Western Digital, y su modelo fue el mítico "Caviar". En ese entonces, los modelos de discos similares no superaban los 540 MB aún.
- 1992: Seagate pone en el mercado los discos IDE Barracuda, los primeros en poseer una rotación de 7200 RPM. Su capacidad de almacenamiento era de 2 GB, suficientes para albergar a Windows 98 y los primeros Sistemas Linux, por ejemplo.
- 1996: Seagate introduce su modelo IDE "Cheetah", el primero en alcazar las  10000 RPM (las cuales hoy en día siguen siendo más que aceptables).
- 1997: IBM produce un disco IDE de 16.8GB, perteneciente a la famosa familia "Deskstar", el 16GP Titan.
- 2000: Seagate produce el primer disco IDE de 15000 RPM, el "Cheetah X15", el cual sigue superando hoy la velocidad de un disco IDE contenido en un PC común de hogar.
- 2003: Western Digital produjo el primer disco duro SATA de 10000 RPM, de 37GB de capacidad, el "Raptor".
- 2005: Primer disco duro de 500 GB, fabricado por Hitachi.
- 2006: Western Digital lanza su disco duro SATA de 150 GB y 10000 RPM, el "Raptor X". Los discos IDE se siguen fabricando mientras tanto, a similares velocidades y mayores capacidades de almacenamiento que los SATA, pero con menor desempeño (performance). Primer disco duro de 750 GB, de Seagate.
- 2007: Aparece el primer disco duro de 1 TeraByte (TB), de Hitachi.
- 2008: Primer disco duro de 1.5 TB, de Seagate.
- 2009: Western Digital lanza el primer disco duro de 2 TB.
- 2010: Primeros discos duros de 3 TB producidos por Seagate y Western Digital.
- 2011: Nuevamente Seagate aparece como líder, lanzando el primer disco duro de 4 TB.


Para finalizar con este punto, les dejo unos párrafos tomados directamente y sin alteración de Wikipedia, sobre las dos tecnologías más utilizadas hasta el momento: IDE (ya en franca decadencia) y SATA, en todas sus variantes.

Tipos de conexión:

Si hablamos de disco duro podemos citar los distintos tipos de conexión que poseen los mismos con la placa base, es decir pueden ser SATA, IDE, SCSI o SAS:

 - IDE: Integrated Device Electronics ("Dispositivo electrónico integrado") o ATA (Advanced Technology Attachment), controla los dispositivos de almacenamiento masivo de datos, como los discos duros y ATAPI (Advanced Technology Attachment Packet Interface) Hasta aproximadamente el 2004, el estándar principal por su versatilidad y asequibilidad. Son planos, anchos y alargados.

 - SCSI: Son interfaces preparadas para discos duros de gran capacidad de almacenamiento y velocidad de rotación. Se presentan bajo tres especificaciones: 
   - SCSI Estándar (Standard SCSI), SCSI Rápido (Fast SCSI) y SCSI Ancho-Rápido (Fast-Wide SCSI). Su tiempo medio de acceso puede llegar a 7 milisegundos y su velocidad de transmisión secuencial de información puede alcanzar teóricamente los 5 Mbps en los discos SCSI Estándares, los 10 Mbps en los discos SCSI Rápidos y los 20 Mbps en los discos SCSI Anchos-Rápidos (SCSI-2). Un controlador SCSI puede manejar hasta 7 discos duros SCSI (o 7 periféricos SCSI) con conexión tipo 
margarita (daisy-chain). A diferencia de los discos IDE, pueden trabajar asincrónicamente con relación al microprocesador, lo que posibilita una mayor velocidad de transferencia.

 - SATA (Serial ATA): El más novedoso de los estándares de conexión, utiliza un bus serie para la transmisión de datos. Notablemente más rápido y eficiente que IDE. 
Existen tres versiones, SATA 1 con velocidad de transferencia de hasta 150 MB/s (hoy día descatalogado), SATA 2 de hasta 300 MB/s, el más extendido en la actualidad; y por último SATA 3 de hasta 600 MB/s el cual se está empezando a hacer hueco en el mercado. Físicamente es mucho más pequeño y cómodo que los IDE, además de permitir conexión en caliente.

 - SAS (Serial Attached SCSI): Interfaz de transferencia de datos en serie, sucesor del SCSI paralelo, aunque sigue utilizando comandos SCSI para interaccionar con los dispositivos SAS. Aumenta la velocidad y permite la conexión y desconexión en caliente. Una de las principales características es que aumenta la velocidad de transferencia al aumentar el número de dispositivos conectados, es decir, puede 
gestionar una tasa de transferencia constante para cada dispositivo conectado, además de terminar con la limitación de 16 dispositivos existente en SCSI, es por ello que se vaticina que la tecnología SAS irá reemplazando a su predecesora SCSI. Además, el conector es el mismo que en la interfaz SATA y permite utilizar estos discos duros, para aplicaciones con menos necesidad de velocidad, ahorrando 
costes. Por lo tanto, las unidades SATA pueden ser utilizadas por controladoras SAS pero no a la inversa, una controladora SATA no reconoce discos SAS.

Después de haber analizado toda esta información: ¿a qué conclusión debemos llegar?

1. CAPACIDAD (ESPACIO) ["tamaño"]
Hoy en día, el ordenador es el centro multimedia por excelencia. No hay otro aparato que nos permita reproducir, grabar y editar audio, video e imagen, utilizar aplicaciones de entretenimiento como los asombrosos juegos de última generación, etc.
Todo lo mencionado anteriormente necesita espacio en donde permanecer. Y el Sistema que administre todo este material, necesitará más espacio aún para codificar, procesar, y en definitiva, trabajar con todo ello. Además necesitará suficiente espacio libre para desplegar sus archivos temporales, de información, de registro, etc.
La conclusión se asoma: cuanto más espacio, mejor.
Pero: ¿a qué parámetros debemos ajustarnos para no caer en el exceso?
La relación de espacio y rendimiento viene ligada a otra relación: Sistema a utilizar y utilización del mismo.
Para Windows XPOpenSuSe con escritorios XFCE o LXDE, XUbuntuLUbuntu:Mínimo irrisorio: 20 a 30 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 30 a 40 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 60 a 80 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 160 GB para un uso irrestricto.
Sugerido: 200 a 320 GB
Para Windows VistaOpenSuSe con escritorio Gnome, Ubuntu Desktop Edition:
Mínimo irrisorio: 40 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 40 a 60 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 80 a 120 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 200 GB para un uso irrestricto.
Sugerido: 360 a 500 GB
Para Windows SevenOpenSuSe con escritorio KDE, KUbuntu:
Mínimo irrisorio: 40 GB para un perfil de uso exclusivo de Internet
Mínimo indispensable: 40 a 60 GB para un perfil de uso exclusivo de Internet y ofimática
Mínimo aceptable: 80 a 160 GB para un uso común, de hogar o empresa (Internet, correo electrónico, ofimática, juegos de requerimientos escasos a moderados, codificación escasa de música y video, etc.).
Mínimo recomendado: 500 GB para un uso irrestricto.
Sugerido: 500 GB a 1 TB
2. ARQUITECTURA
En segundo lugar entrará en juego la arquitectura utilizada: PATA (IDE) o SATA. Los discos SATA son más eficientes, pero a su vez, cuanto más grandes son y más velocidad poseen, más calor disipan. Es bueno ver los factores que hacen la diferencia entre una y otra tecnología, a los efectos de convencernos del porqué una de las dos es la mejor entre ambas.
CABLES SATA:
Estos cables son mucho más delgados (5 cm. de ancho contra los 8 mm. de ancho del cable IDE del PATA), y más resistentes y fiables en cuanto a la transmisión de datos. También son más resistentes a los daños producidos por apretones, cortes, presiones ejercidas sobre el mismo, pinzamientos, etc.
Poseen 7 conectores (pines), contra los 80 hilos del IDE. Cuanto menor cantidad de cables, menor posibilidad de interferencia, ruido y distorsión potencial. Además están mejor aislados que los IDE, por consiguiente, los datos que transporte estarán dentro de un canal más conveniente.
Favorecen la ventilación interna del ordenador al dejar fluir el aire generado por los ventiladores. A su vez, los discos SATA disipan más calor que los PATA, y muchos de ellos necesitan refrigeración mecánica complementaria. Por lo tanto, si este es tu caso, aquí no habrá diferencia sensible al respecto. Es decir que, favorecer la ventilación generando más calor es similar a no favorecerla generando menos calor. De todos modos me inclino por la variante SATA, aunque necesite refrigeración in situ.
DISCOS SATA:
Estos discos no necesitan puentes o jumpers para su configuración. Es decir que el concepto PATA de establecimiento de categoría de disco maestro primario y secundario y esclavo primario y secundario, ya no es importante, pues se automatiza en los discos SATA.
Soportan hot-plug, es decir, se pueden conectar con el ordenador apagado, o bien ya cuando está en funcionamiento el Sistema Operativo.
La tecnología SATA brinda mayor comodidad, fiabilidad y facilidad en el intercambio de unidades. Esto hace que cambiar un disco sea tan sencillo como desconectarlo y conectar el siguiente, aún con el Sistema Operativo funcionando.
Como se verá debajo, SATA brinda mayor capacidad y velocidad -potencial y real- que PATA.
3. VELOCIDAD
Tomemos como base que los discos PATA (IDE), conectados con cables de 40 hilos, operan en modo PIO, ofreciendo una tasa de transferencia de entre 3,3 y 16,7 Mb/s (Megabit por segundo).
Esta tasa de transferencia fue mejorada con la introducción de la tecnología Ultra DMA para discos del mismo tipo, utilizando conectores de 80 pines (el doble que en el modo PIO), y operando a valores entre el mínimo ofrecido por la tecnología predecesora (16,7) y alcanzando los 133 Mb/s.
Ahora bien, es de suponer que la tecnología SATA es superior por alguna razón, ¿no es así?
Por lo tanto diremos que SATA, en su revisión 1 (SATA1), opera a 1,5 Gigabit/s (¡más de 10 veces más rápido que el Ultra DMA más veloz!), en su revisión 2 (SATA2), lo hace a 3 Gb/s (el doble que su predecesor), y la revisión 3 (SATA3), alcanza los 6 Gb/s (el cuádruple del SATA1 y el doble del SATA2).
4. ADMINISTRACIÓN ENERGÉTICA
Los discos SATA, conforme mayor capacidad y velocidad van ofreciendo, más calor van generando. A partir de los 500 GB inclusive, cualquiera sea su velocidad, te recomiendo agregarle un sistema de enfriamiento a tu disco duro. Este sistema no consiste más que en otro ventilador que se le agrega internamente al PC (como mínimo todos los PC tienen 2 a 3 ventiladores en su interior), y su ubicación es en la parte inferior del disco, justo debajo de la controladora de hardware del mismo (circuito integrado de la placa del disco).
Han sido expuestos los argumentos necesarios para las llegar a las conclusiones más favorables. Como dicen los angloparlantes: I'ts your choice!


4 - ACELERADORA GRÁFICA



Bienvenidos a la parte de la publicación que me llevó más tiempo. Fue difícil construír este apartado en particular. No se dispone de suficiente información que quede a la mano en Internet, ni está ordenada en un mismo lugar, ni siquiera en algún grupo reducido de lugares. Tuve que investigar muchísimo antes de poder presentar algo coherente y razonable. De antemano, me excuso por cualquier omisión involuntaria. Garantizo la responsabilidad y la dedicación que el tema merece, el cual, si bien podía haber sido abordado desde diferentes ángulos, creo que desemboca en un lugar común y defendible, que es lo que verdaderamente importa. Voy a publicar el artículo y me iré a fumar. Estoy contento y ansioso por dejar esta información en 
Internet. Hoy siento que estoy haciendo un aporte que realmente es novedoso a la fecha, en su conjunto. Que tengas un buen día.

INTRODUCCIÓN:
Hasta los años '60, el medio visual existente para desplegar información era el papel impreso. No existía otro administrador gráfico que la impresora. Hay que recordar que los aparatos de televisión hacía muy poco tiempo que comenzaban a aparecer tímidamente y a pasos lentos y pequeños. Aproximadamente en el año 1930 se comienzan a fabricar los televisores. Y este revolucionario dispositivo tendrá que esperar 10 años al menos para comenzar a proliferar en los países económicamente más desarrollados de esa época (Inglaterra, Francia, Estados Unidos), y dentro de ellos, en los hogares de las familias más adineradas.

Las primeras tarjetas gráficas fabricadas pocos años antes de la década del '70, solamente podían mostrar texto a 40 u 80 columnas por 25 renglones, hasta la aparición de los primeros procesadores gráficos.
El dominio informático a nivel de hogares, a fines de los '70 y principios de los '80, curiosamente, no lo ostentaba el clásico PC que hoy día conocemos. Este universo era propiedad de los ordenadores personales -término que se confunde con el de "Personal Computer", pero que en realidad es anterior al mismo-, tales como el maravilloso Commodore 64, el Commodore 128, el Commodore Amiga, El Sinclair Spectrum, el TK90 y el TK95, el Apple II, el Atari 800...

Estos computadores ya utilizaban aceleradoras gráficas internas, y tenían la capacidad de utilizar el televisor como monitor, cosa que hasta hace pocos años era bastante difícil de lograr en los PC convencionales de hoy. Recuerdo que el padre de un gran amigo, a principio de los años '90, le había comprado a su hijo un PC con procesador Intel i386 de 33 MHz operado por D.O.S., y que era unas 30 veces más potente que el querido Commodore 64 con su MOS6510 que me había regalado mi primo...
El Commodore, siendo más lento, más obsoleto y menos futurista que el Intel i386, podía reproducir sonido en estéreo, mostrar gráficos y dibujos a todo color, acceder a cintas de casete baratos y convencionales para guardar y leer datos, y disponía de una gama muy alta de aplicaciones multimedia y de entretenimiento (¡y hasta había software para uso profesional y de negocios!), por lo cual, cuando estábamos frente a ese flamante PC, yo pensaba... ¿pero qué sentido tiene haber gastado tanto dinero en esta basura máquina? ¿Ésta es la maravilla de la computación? ¿Una pantalla negra con un cursor a la espera de crípticas instrucciones, con un sonido latoso, monoaural, proveniente de un microparlante de 1 Watt adosado a una plancha de metal, y todo ello ocupando tanto espacio y siendo tan pesado y difícil de configurar y manipular?

Pues bien, esa pesada carcaza metálica que albergaba dispositivos hoy arcaicos, fue evolucionando. Esa bacteria imberbe, ese microorganismo unicelular, fue la reina del darwinismo microeléctrico. Y los príncipes fueron sus dispositivos.

Hasta principios del año '84 aproximadamente, el estándar de video para el PC era la tarjeta monocromática de baja resolución, como ya se ha mencionado, pero ya a fines de este mismo año comenzaron a aparecer las tarjetas de 16 colores (¡aún sin poder alcanzar la calidad de imagen de la Commodore 64!), y ya entre el '87 y el '89, los entusiastas disponían de resoluciones que iban desde el mítico 640 x 480 hasta la recientemente obsoleta de 1024 x 768 píxeles, con hasta 65000 colores.

En los años '90, comenzaron a aparecer las primeras tarjetas 3D, y hubo que reinventar la arquitectura del hardware: en el año '96, IBM inventó el puerto AGP, el cual permitió dar un salto cualitativo en el área de la cual estamos hablando, puesto que los puertos ISA y PCI que hasta el momento se utilizaban para dichos fines, habían alcanzado su potencial máximo y no permitían la evolución gráfica. En este punto dejaremos la historia para pasar a datos más concretos.

Nos centraremos únicamente en los dos fabricantes más importantes de tarjetas gráficas de hoy en día, para no hacer demasiado extenso este capítulo. Los mismos serán ATI (absorbida por AMD en el año 2006) y nVidia, y sus respectivos modelos más extendidos: Radeon y GeForce, respectivamente. También cabe mencionar que se tomarán en cuenta aquéllos modelos con arquitectura AGP (Accelerated Graphics Port) como punto de partida, porque a partir de aquí comienza la verdadera historia de la aceleración gráfica, y por seguir siendo válido este tipo de conexión hoy en día.

Breve cronología histórica:
AÑO 1999:

- Los monitores CRT (cathode ray tube) y LCD (liquid crystal display) son los dispositivos de salida gráfica más frecuentes.
- Los monitores "plasma" comienzan a proliferar.
- Aparición del puerto DVI (Digital visual interface)
- Primeras aceleradoras gráficas con memoria DDR y conexión AGP
- Estándar de memoria para el momento: 32 Mb
nVidia: GeForce 256

AÑO 2000:
- Estándar de memoria para el momento: 64 Mb
ATI: Radeon 256, VE/7000, 7500
nVidia: serie GeForce2

AÑO 2001:
- Primeras aceleradoras gráficas AGP x8
- Se incorpora un novedoso sistema de renderizado: pixel shader
ATI: Radeon 8500, 9000 y 9200/9250
nVidia: serie GeForce3

AÑO 2002:
- Estándar de memoria para el momento: 128 Mb
Radeon: 9500, 9550, 9600, 9600 XT, 9800, 9800XT, X300, X600
nVidia: serie GeForce4

AÑO 2003:
- Aparición del puerto HDMI (High definition multimedia interface)
- Primeras aceleradoras gráficas con memoria DDR2
nVidia: serie GeForce FX

AÑO 2004:
- Se incorpora un novedoso sistema de realce de imágenes: HDRI (high dynamic range imaging)
- Primeras aceleradoras gráficas PCI-EXPRESS.
- Primeras aceleradoras gráficas con tecnología SLI (Scalable Link Interface) y PureVideo.
- Primeras aceleradoras gráficas con memoria DDR3
- Estándar de memoria para el momento: 256 Mb
ATI: Radeon X800 XT PE, tarjetas Radeon serie X850
nVidia: serie GeForce 6

AÑO 2005:
- Se mejora el renderizado: aparece el supersampling
- Debido al surgimiento del velocísimo puerto PCI-Express en el año anterior, comienzan a dejar de fabricarse aceleradoras gráficas para el aún robusto, veloz y potente puerto AGP
- Estándar de memoria para el momento: 512 Mb
ATI: Radeon X1800 XL, X1800 XT, X1900 GT
nVidia: serie GeForce 7

AÑO 2006:
- Primeras tarjetas con memoria DDR4
- AMD absorbe a ATI.
- Estándar de memoria para el momento: 768 a 1024 Mb
AMD: Radeon X1950XTX, X1950PRO
nVidia: serie GeForce 8

AÑO 2007:
AMD: Radeon R600 (más conocido como serie HD 2000), HD 2900 XT, HD 3870

Año 2008:
- Primeras aceleradoras gráficas de doble núcleo
- Estándar de memoria para el momento: 896 a 1536 Mb
AMD: Radeon HD 3870 X2, HD4650, HD4670, HD4830, HD4850, HD4870
nVidia: series GeForce 9 y nVidia GeForce 100
Poco tiempo después, nVidia lanza al mercado las series GeForce 200 y 300

AÑO 2009:
- Parece ser éste el año en donde comienzan a difundirse vigorosamente en los países económicamente más fuertes las primeras pantallas LED. Lamentablemente no encontré fuentes muy confiables ni información seria y prolija como para asegurar que esto haya sido exactamente así, pero sí puedo asegurar que, al menos, la información es muy aproximada.
- Primeras tarjetas con memoria DDR5
- Estándar de memoria para el momento: 1024 a 2048 Mb
AMD: Radeon HD 5870

AÑO 2010:
AMD: Radeon HD 5770, HD 5750, serie HD 6000
nVidia: Serie GeForce 400 y 500

AÑOS 2011 y 2012:
- Estándar de memoria para el momento: 2048 a 3072 Mb
AMD: Radeon serie HD 7000

Después de haber leído y comprendido toda esta información: ¿a qué conclusión debemos llegar?

1. Hay que tener en cuenta, es que cuanto más memoria propietaria tenga la aceleradora, mejor será para el rendimiento de las aplicaciones multimedia y del equipo en sí. De otro modo, la misma estará sometida a trabajar con la memoria RAM del PC, quitándole recursos al ordenador entero. Hay que tener en cuenta que no siempre se utiliza toda la memoria disponible de la placa, ni toda la memoria disponible en el equipo. Agregarle a mi PC 16 GB de RAM no lo hará más rápido sino más costoso si yo ya disponía de una cantidad de RAM razonable. Lo mismo sucede si adquiero una aceleradora con excesiva capacidad de memoria propietaria si al final no voy a instalar los juegos fabricados en el mismo mes en el cual compré la tarjeta. Hay que ser cauteloso con esto. Espero ser comprendido. Lo razonable es adquirir una aceleradora gráfica con 1 o 2 GB de memoria propietaria tipo DDR4 o 5 si es posible.

2. Hay que preferir PCI-Express antes que AGP, aunque esto no es solo una cuestión de gustos. Si tu PC se fabricó hace algunos años, hay grandes posibilidades que utilice tecnología AGP para la expansión del video, o bien tal vez no disponga de ningún zócalo para la aceleración gráfica. Si, por el contrario, tu PC es nuevo, puedes tener la seguridad que podrás instalar sobre seguro casi cualquier aceleradora PCI-Express. Cuidado con la fuente del equipo: cuanto mayores prestaciones ofrecen las PCI-Express, mayor potencia
consumirán. Es posible que tengas que actualizar la fuente de poder del equipo, en potencia y calidad, si piensas en agregarle una aceleradora gráfica muy potente a tu PC. Por otra parte, la placa (motherboard), puede no soportarla.

3. Si tu procesador y tu placa van en consonancia con AMD (Advanced micro devices), entonces es mejor que elijas aceleradoras gráficas AMD o ATI (son la misma cosa). Si no es así, y tu máquina dispone de procesador Intel y placa madre nVidia, por ejemplo, es mejor que escojas aceleradoras gráficas nVidia. Este punto ya es discutible. Tómalo como un consejo en lugar de tomarlo como una recomendación.

Espero haber sido claro. Envíame tu impresión si no es así... ¡y si es así, tambien! jeje



  II - DISPOSITIVOS RECOMENDADOS   


5 - UNIDAD ÓPTICA (CD/DVD)
No será necesario ahondar demasiado en este apartado del artículo. Si vas a comprar una torre o una computadora de escritorio, observa que si no tiene unidad óptica, tu máquina será incompatible con uno de los medios más populares de intercambio de información: el disco compacto. Y me refiero tanto al CD como al DVD.
Pero este caso es mucho más delicado si vas por una laptop o notebook. Muchas de ellas traen un combo óptico que lee CD y DVD pero no graba... Por lo tanto la situación que se produce es similar... Imagina que el disco duro de tu computadora se va llenando de fotos, videos, películas, imágenes, música, archivos, datos de todo tipo... Hasta que no queda suficiente espacio para el correcto funcionamiento del Sistema y se enlentece de manera considerable el computador. Dices: "Bien, esto es sencillo: haré un respaldo de la información que esté ocupando mayor espacio y a continuación eliminaré esos datos del disco duro". Cuando lo vas a hacer te das cuenta que no dispones de grabadora de DVD... ¿Echarás mano a todos tus pendrives, memorias flash y demás? ¿Irás corriendo a comprarte un disco duro externo USB de 500 GB para salvar la situación?
Este es el caso de las netbooks.

En cualquier caso, es altamente recomendable que tu ordenador disponga de una unidad óptica capaz de leer y grabar CDs y DVDs.

Es preferible además, que soporte Dual layer, que es la función de leer y grabar un DVD por ambas caras.

Si además esa unidad puede leer y/o grabar Blu-ray, mejor. Esta tecnología permite el procesamiento de video de altísima definición, y el almacenamiento en gran densidad de datos (entre 23 y 54 GB de capacidad).

Y si, como corolario, dispone de tecnología Lightscribe para imprimir mediante un láser interno la carátula del disco una vez grabado el mismo, ¡mejor aún!



6 - RED (Ethernet) [Internet]



Aquí hay que considerar algunos factores de especial importancia.
En primer lugar, hay que tener claro de qué manera tu computadora se conectará a Internet, y existen varios modos para ello. Dichos modos podrían ser: por vía cableada (conectores RJ45), por fibra óptica, o bien por conexión inalámbrica PCI o USB, solo por citar los modos que creo que son más populares.


A continuación, estableceremos los significados de las siglas utilizadas en estos casos, y mínimos conceptos básicos fundamentales:
UTP: unshielded twisted pair
Mbps: es lo mismo que Mb/s, Mbit/s y Mbit/seg, y significa Megabit por segundo. 1 Megabit representa 1000 kilobits (Kb) o 1 millón de Bits. Hay que poner especial atención de no confundir el Megabit con el MegaByte, ya que a este último se lo referencia con las dos letras en mayúscula (MB), y representa una unidad 8 veces mayor, es decir que, hablar de 1 MegaByte por segundo (MB/s), equivale a hablar de 8 Megabits por segundo (Mb/s).
GPRS: General Packet Radio Service (servicio general de paquetes vía radio).
EDGE: Enhanced Dara Rates of GSM Evolution (tasas de datos mejoradas para la evolución de GSM). Es más conocido -y menos complicado- como EGPRS (Enhanced GPRS).

VELOCIDADES DE LAS DIFERENTES TECNOLOGÍAS:
Ethernet opera a 10Mb/s, Fast Ethernet a 100 Mb/s, y Gigabit Ethernet a 1000 Mb/s.
UTP 3 opera a 10 Mb/s y UTP5 a 100 Mb/s.
10/100 significa que tanto la tecnología utilizada con el cableado UTP 3 (10) como la utilizada con el UTP 5 (100) son compatibles con este modo.


1. Conexión por cable
INTRODUCCIÓN TÉCNICA
Actualmente existen pocos modos convencionales para conectar un ordenador doméstico a Internet. Los más difundidos, hoy en día, son el 100BaseT4 que utiliza cable UTP de categoría 3, y el 100BaseTX con cable UTP de categoría 5. Ambas tecnologías utilizan el mismo tipo de conexión, pero poseen diferente velocidad y ancho de banda en tramos directos de hasta 100 metros de longitud. En ambos casos estamos hablando de cables del mismo tipo, es decir, de par trenzado. La diferencia es que el de categoría 3 es capaz de transportar datos con fidelidad a velocidades del entorno de los 10 Mb/s, mientras que el de categoría 5 lo hace 10 veces más rápido.
CONEXIÓN 10/100 (Fast Ethernet)En los países menos desarrollados de latinoamérica, por ejemplo, (y no necesariamente en los más sumergidos), el estándar es la conexión 10/100 que utiliza los estándares descritos arriba.
De modo que cualquier enrutador (router), concentrador (hub) o conmutador (switch) -nuevo, de fábrica- que se venda en plaza, bastará para tener una conexión a Internet decente. La tarjeta que utilizará la PC será del mismo tipo: placa de red PCI o PCI Express 10/100.
Lo que debes hacer, en primer lugar, es averiguar a qué velocidades trabajan las compañías telefónicas que brindan servicio a Internet cableado en tu país y, a continuación, elegir el plan que más te convenga y puedas pagar. Si estamos hablando de Kilobits o Megabits, cualquier tarjeta PCI 10/100 que le instales al ordenador será más que suficiente.
Para comprender un poco mejor aquéllo de lo cual estamos hablando, dejo un enlace aquí a la página oficial de ANTEL, la empresa más importante de telecomunicaciones de Uruguay, en donde pueden verse los planes que se ofrecen hoy en día a los uruguayos:
2. Conexión por fibra óptica y de alta velocidad por cable
CONEXIÓN 10/100/1000 (Gigabit Ethernet)
I) En el caso de los países en donde el cableado que va desde el proveedor de Internet hasta la central más cercana a tu domicilio, seguramente se utilizan conexiones con velocidades medidas en Gigabits. En este caso hay que pensar en una tarjeta PCI o PCI Express 
10/100/1000 (Gigabit  Ethernet), puesto que con una 10/100 (Fast Ethernet), como se comprenderá si se ha leído el apartado de arriba, se producirá un "cuello de botella" o enlentecimiento bastante notorio de la velocidad de transferencia de la conexión.
Las conexiones por cable que pueden alcanzar valores de transmisión del entorno de los 1000 Mb/s en 100 metros ininterrumpidos (directos), utilizan cable de 4 pares trenzados, de categoria 5e o UTP 6 en modo 100BaseT.
Imagen: http://es.startech.com/Industriales-ES/Adaptadores-Red/Tarjeta-de-Red-Ethernet-Gigabit-10-100-1000-a-PCI-de-32-Bits-de-1-Puerto~ST1000BT32

II) Hay casos en que los afortunados internautas disponen de una costosa y velocísima estructura de red que llega hasta su módem o router, y que se basa exclusivamente en la fibra óptica.
Es aquí en donde conviene instalarle a nuestro ordenador una tarjeta de red para fibra óptica, como la que se ve en la figura de abajo.


Imagen: http://www.ovislink-espana.com/index.php?sec=4_int&cat=12&fam=14&prod=39&family=Tarjetas-de-red&product=Tarjetas-de-red-Fibra-%D3ptica&model=FE-100T
Las conexiones de fibra óptica alcanzan valores de transmisión de los 1000 Mb/s en tramos de entre 550 y 5000 metros, en modos 100BaseSX y 100BaseLX.

3. Conexión inalámbrica PCI o PCI-Express:
Nota inicial: dentro de este apartado, nos referiremos indistintamente, salvo por mención expresa, tanto a dispositivos PCI como a PCI-Express, denominándolos simplemente "PCI", y no necesariamente haciendo hincapié acerca de a cuál de ellos nos estaríamos refiriendo.
La conexión de red también puede establecerse sin cables (al menos el tramo que va desde la computadora hasta el módem o enrutador, por ejemplo). Este modo se denomina "inalámbrico" WiFi (no es una sigla, sino un nombre, y hace referencia al modo de conexión IEEE 802.11x, en donde "x" representa cualquiera de los  modos admitidos por esta tecnología, tales como 802.11 b -11 Mb/s-, 802.11g -54 Mb/s- u 802.11n -600 Mb/s-) o simplemente WireLess ("sin alambres").
"PCI" o "PCI-Express", es la tecnología de hardware utilizada para la fabricación de la placa o tarjeta de red. Generalmente, los PC que se fabrican hoy en día siguen manteniendo en sus placas madre o motherboards las viejas y fieles ranuras o slots PCI, aunque con predominio de conectores PCI-Express, que son los que llevan la delantera en el aspecto tecnológico de esta materia.
Hay al menos 2 factores a tener en cuenta al proponernos instalar un dispositivo de red inalámbrico PCI en nuestro PC.
I) Velocidad de transferencia de datos necesaria
Como se describe más arriba, cada paso que se ha dado en la velocidad y fiabilidad de transferencia de datos a nivel inalámbrico, ha sido identificada con una letra diferente en cada caso, debiendo atenderse esta nomenclatura a la hora de hacer nuestra elección.
Los modos de transmisión de la tecnología IEEE 802.11x son los que citaré a continuación, y utilizaré para ello el siguiente formato: año de implementación, modo, y velocidad. No serán tenidos en cuenta los modos especiales como el 802.11c, por ejemplo, que es utilizado para conectar redes WLAN (WireLess Local Area Network) de diverso tipo, o el 802.11d, u otros que no resuelvan intereses o necesidades del usuario común o estándar, de hogar o empresa.
1997,  legacy,   2 Mb/s
1999,  modo a,  54 Mb/s
1999,  modo b,  11 Mb/s
2003,  modo g,  54 Mb/s
2004,  modo n, 600 Mb/s
II) Modos de transmisión inalámbrica soportados por el enrutador (router) o módem.
El ordenador y el elemento de red que esté conectado a él, necesitan comunicarse mediante los mismos modos y protocolos.
Es mejor informarse acerca de los modos soportados por el enrutador o conmutador al cual será conectada nuestra PC, para, en función de ello, conseguir la mejor tarjeta de red para nosotros.
Por otra parte, si aún no poseemos router o switch, podríamos hacer al revés: conseguir un enrutador o conmutador en función de nuestra tarjeta de red inalámbrica, o bien, actualizar la tarjeta si ésta no fuese la más adecuada para nuestras necesidades y para la inversión total que representará todo ello en conjunto.

4. Conexión inalámbrica USB (USB WireLess)
De entre todos los modos posibles de conexión de red por USB, solamente citaremos unos pocos: los más usuales.
I) El módem USB de banda ancha móvil.
Este tipo de dispositivo, en la gran mayoría de los casos, es distribuido por proveedores de telefonía móvil (movistar, vodafone, ancel, etc.). Su principal objetivo es el de proveer de servicios de red (Internet) a casi cualquier ordenador, y en casi cualquier lugar más o menos densamente habitado del planeta.
Su uso es más práctico y recomendable para computadoras portátiles no estacionarias (notebooks, netbooks), puesto que sus prestaciones -en materia de fiabilidad, conectividad, intensidad de la señal y ancho de banda- son inferiores en mayor o menor medida a las prestadas por el medio cableado. Por supuesto que un buen 'contrato' de Internet de banda ancha móvil será preferible a un pésimo 'contrato' de Internet por cable, pero, si comparamos tanto las peores como las mejores prestaciones de ambas tecnologías entre sí -escala por escala-, veremos que siempre es superior y preferible la conexión por cable, a menos que necesites moverte frecuentemente con tu ordenador a cuestas. Sin lugar a dudas, en este último caso, tu elección no deberá ser muy meditada: la banda ancha móvil será tu mejor (o tal vez única) opción.
Generalmente, los 'planes' o 'contratos' de gama baja y media más usuales de banda ancha móvil, proporcionan velocidades a partir de los 512 kb/s de bajada y 128 kb/s de subida, con cupos de descarga del entorno de los 5 GB mensuales en adelante, llegando en estos momentos a proporcionar -en las mejores posiilidades existentes-, contratos de banda ancha móvil de 10240 kb/s de bajada (10 Mb/s), 512 kb/s de subida, y un cupo de consumo de 100 GB mensuales.
Aquí dejo un enlace con tarifas y velocidades suministradas por ANTEL en Uruguay:
II) El uso del celular como módem.
Si no tienes previsto el uso diario y masivo de Internet (!?!?!?), o bien si necesitas salir de un apuro o sacar de un aprieto a alguien, o no tienes más remedio que utilizar momentáneamente este método, puedes optar por esta opción. Los teléfonos celulares que se conectan a Internet -ya sea por WiFi a una red de ordenadores, o por GPRS o EGPRS (EDGE) a una red de teléfonos móviles-, pueden brindar conexión a un tercero, como sería el caso de un ordenador.
Si configuras correctamente el Sistema Operativo de tu computadora para que detecte y se comunique con el módem interno de tu teléfono celular, y a su vez configuras tu móvil para que pueda brindarle acceso a Internet a tu PC, también podrás navegar por la web con tu ordenador utilizando este ingenioso aparatito que es, en sí, un módem portátil.
III) Adaptadores USB inalámbricos (WireLess USB adapters) [antenas y otros].
Son dispositivos que agregan funcionalidad inalámbrica al PC sin necesidad de instalación de ningún tipo de accesorio interno de características privativas, particulares y predestinadas a una sola máquina. En este sentido, estos adaptadores son muy diferentes a las placas de red PCI, puesto que pueden ser transportados con facilidad de un lugar a otro (es pequeño, liviano, estandarizado, altamente compatible, práctico), y es capaz de detectar conexiones de red allí donde haya un router o access point con emisión inalámbrica "visible".



7 - PUERTOS O CONECTORES USB


Los Sistemas Operativos que surgieron poco antes o poco después del año 2000, se pensaron para trabajar en conjunto con esta tecnología que permitía conectar un dispositivo sin tener que hacer cambios importantes, ni utilizar software adicional para ello, salvo, y en ocasiones, los controladores que se necesitasen para el caso, como es normal.
Dentro de la línea de Microsoft, ya desde Windows 2000 en adelante, generalmente no era necesario reiniciar el ordenador tras la instalación de un periférico USB, puesto que, tanto el Sistema Operativo como el dispositivo USB, ya estaban preparados para trabajar en conjunto y poder brindarle al usuario la posibilidad de utilización inmediata de casi cualquier elemento USB.
Esto es conocido como plug and play (la traducción en español sería algo así como "conectar y usar"), lo que significa que el elemento que se está conectando no necesita intervención del usuario en cuanto a ajustes y configuración inicial).
La tecnología USB también posibilita el hot plug (en español sería algo parecido a "conexión en caliente" o, dicho con más precisión y respeto (*) "conexión sobre la marcha", lo cual indica que no habrá que apagar el ordenador durante la conexión del dispositivo).
En el año 1994 comenzaron a aparecer los primeros conectores USB 1.0. Ofrecían una velocidad para el flujo de datos de 1,5 Mb/s (MegaBits por segundo), y en principio, fueron pensados para conectar dispositivos con bajo consumo de ancho de banda o de flujo de datos moderado a bajo.
En 1998, la primera revisión llegó al usuario a través del USB 1.1. Éste modo ampliaba el caudal de transporte de datos casi 10 veces en comparación con su antecesor, llegando a los 12 Mb/s, y logrando otro avance extra tecnológico: comenzó a ser adoptado como elemento estándar en las computadoras comunes a partir de aquí. La compatibilidad con 1.0 se mantuvo.
2 años más tarde apareció el USB 2.0. Aquí las mejoras se hacen notar con fuerza: una velocidad 40 veces superior (hasta 480 Mb/s), una proliferación masíva -ya demandado con exigencia por parte del usuario-, y aún  manteniendo la compatibilidad con sus predecesores.
En 2008, una nuevo cambio ocurrió en esta tecnología. La aparición del USB 3.0 significó -otra vez- una multiplicación por diez en la velocidad de transferencia, llegando a los asombrosos 5 Gb/s (GigaBits por segundo), y solucionando inconvenientes importantes en cuanto a la demanda energética de algunos dispositivos, en donde todos los antecesores se ven superados. ambién se mantiene la compatibilidad con sus homónimos.
El conector USB realmente ha sido una genialidad que, como tantos grandes logros en la historia de la Informática (primer disco duro comercial, por ejemplo), se le debe agradecer a IBM.

IBM no es ni por asomo la única compañía que se ha destacado en esta larga e interminable carrera, pero es una de las empresas que más ha aportado, merced a su dedicación, estabilidad y permanencia, y eso es algo que no debe pasarse por alto. Vaya aquí entonces un pequeño e involuntariamente desapercibido mensaje a International Business Machines.
Finalizando con este apartado, concluiremos en que, de ser posible, deberás intentar que tu nuevo PC posea puertos USB 3.0.
Eso, hoy en día, y en los mercados de los países económicamente menos pudientes, es muy difícil. No porque el cliente no pueda pagar una máquina con puertos USB, sino porque, directamente, casi no existen en nuestros mercados.

Si no tienes posibilidad entonces, de conseguir un PC con esta tecnología, seguro que podrás conseguir uno con puertos 2.0.

En ese caso, te doy un buen consejo: busca computadoras que posean puertos USB delanteros, ya que te ahorrarán varios dolores de cabeza. Resulta bastante molesto andar buscando una conexión USB libre detrás del PC para conectar un teléfono celular, una cámara digital de fotos, un pendrive, o un disco duro externo, por citar solo algunos pocos ejemplos.
Además es posible que, con la tecnología orientada hacia esta clase de conectores, todos tus periféricos necesiten puertos USB libres, utilizando todas las bocas USB traseras, lo que no dejaría lugar para otros dispositivos.
Hay otra cosa que debes saber.
Los energía de los puertos USB internos es proporcionada por la placa base mediante dos vías.
La bus-powered -comúnmente aplicada a los puertos delanteros-, la cual es de baja potencia y solamente permite conectar simultáneamente hasta 4 dispositivos de bajo consumo (teclados, ratones, memorias de diferente tipo que no necesiten sobrealimentación adicional, etc.), y la self-powered, de mayor potencia -comúnmente aplicada a los puertos traseros del ordenador-, que permite conectar simultáneamente hasta 127 dispositivos USB de diverso tipo.
Es decir que conviene informarse acerca de la fuente de alimentación de todos los puertos USB del ordenador, poniendo especial énfasis en si, además de los traseros, también los delanteros son self-powered.
Como verás, en ocasiones, los puertos delanteros serán fundamentales. Pero esto es cuestión del uso que cada quien le vaya a dar al PC.
Así que, nuevamente, it's your choice!
(*) Nótese el popular uso de la palabra hot, en culturas anglosajonas, para definir situaciones y características: hotmail, hotplug, hotline, hot press, hotshot, hotspot.

Esto, en español, suena enormemente vulgar, puesto que no tenemos esa denominación para ningún caso. No se definen, para nosotros, como hot este tipo de situaciones. Hot, en español, también significa caliente, siempre que se hable de calor producido por el sol, el fuego, y fuentes similares de radiación calórica. Pero, en todos los otros casos, significa deseo sexual extremo o enojo extremo. Por eso es que hago el comentario sobre la vulgaridad de este vocablo en culturas hispanoparlantes, y no por ello le quito validez al término anglosajón, aunque debo decir que me parece más correcto y menos comercial el uso de warm en lugar de hot. Es sólo una apreciación personal.




YAPA: si quieres saber cómo identificar las piezas de hardware en una Commodore 128 del año 1985, visita este post sobre emuladores:
http://informatica-hugonapoli.blogspot.com/2014/10/emuladores-viaje-virtual-al-pasado-y.html


Sitios visitados al elaborar el post:

Sobre microprocesadores:
http://www.intel.com/?es_ES_01

Sobre memorias RAM:
http://miprogramacion.wordpress.com/2008/04/17/historia-de-las-memorias-ram/
http://es.wikipedia.org/wiki/Double_Data_Rate
http://www.kingston.com/latam/

Sobre discos duros:

Sobre aceleradoras gráficas:

domingo, 27 de noviembre de 2011

Criterios económicos en reparación de ordenadores

                    (P) Hugo Napoli, 2011                    

Nota importante: la falta de experiencia me hizo caer en la incorrecta utilización de imágenes. Este es un problema ético que ya estoy comenzando a solucionar. En breve quedará resuelto. Gracias por tu comprensión.

Otra nota importante: el cierre de MegaUpLoad ha dejado inoperantes algunos enlaces de mis post, como le ha pasado a muchísima gente en el mundo. Estoy resubiendo mi material a RapidShare, MediaFire, HotFile, FileServe y GigaSize. Pasarán algunos días hasta que pueda solucionar esto. Algunos enlaces ya están reparados y funcionan correctamente. El resto, aún no. Gracias por tu paciencia.


El post estará permanentemente abierto, puesto que la información contenida obra como punto de partida para un debate de vital importancia en este campo. En Uruguay -pese a que muchos uruguayos viven de esta profesión- no están definidos los criterios a seguir por los técnicos en materia de precios. No hay consenso entre técnicos, ni entre empresas, ni mucho menos entre todos nosotros discutiendo a la vez, ni sindicato informático que nos guíe, ni agrupación alguna que nos oriente en materia económica. Sean bienvenidas todas las opiniones criteriosas. Construyamos desde la nada: ese será nuestro mayor mérito.
No soy economista ni estudioso de esta impresionante disciplina. Solamente poseo en este sentido algo de experiencia en manejo de empresas. Y a esa experiencia es a lo que me remitiré para hablar de costos en esta oportunidad.
Por sentido común, y enorme respeto al conocimiento adquirido (en mi caso por empirismo casi absoluto en materia empresarial, complementado con la lectura de ciertos textos socioeconómicos de relevancia), he aprendido que los precios se deben establecer según (al menos) estos tres parámetros:

1) Oferta y demanda.
El postulado de la oferta y la demanda implica tres leyes:

I.- Cuando, al precio corriente, la demanda excede la oferta, el precio tiende a aumentar. Inversamente, cuando la oferta excede la demanda, el precio tiende a disminuir.
II.- Un aumento en el precio tiende, más tarde o más temprano, a disminuir la demanda y a aumentar la oferta. Inversamente, una disminución en el precio tiende, más tarde o más temprano, a aumentar la demanda y disminuir la oferta.
III: El precio tiende al nivel en el cual la demanda iguala la oferta.

Fragmento extraído de la gran enciclopedia popular, Wikipedia.



Es decir: si el técnico cobra caro, tendrá menos trabajo que realizar, puesto que empezará a perder (o nunca generará) toda aquella clientela que no pueda pagar el precio estipulado.

Si cobra barato, no podrá cumplir con el trabajo en tiempo y forma. Se verá desbordado de tareas, y también perderá posibilidades laborales, debido a la insatisfacción que generará en parte de su clientela al no poder establecer parámetros temporales válidos. Si no sabes si eres uno de estos técnicos, fíjate en el cariz de las respuestas que das a menudo. Si son parecidas a éstas, es porque lo eres: "se me complicó", "me olvidé", "aún no pude hacerlo", "ese es un problema derivado de mi trabajo, por lo cual, la garantía lo cubre", "todavía no puedo decirle nada", "déjeme ver si mañana puedo empezar", "tengo 5 computadoras antes que la suya", "puedo ir a su casa... déjeme ver... umm... dentro de 20 días", etc.). Además la sobrecarga laboral fomenta el trabajo de mala calidad, el error, produce estrés, cansancio, agotamiento,  aumenta el margen de riesgo, genera descontento, inseguridad y disconformidad... y lo peor: genera problemas familiares (y personales).


La idea fundamental que quiero esbozar con todo esto es la siguiente: el técnico debe cobrar lo justo si quiere trabajar correcta y dignamente. A menos que tenga algún cliente adinerado y extraordinariamente loco o benevolente (pero para tener mucho dinero -o al menos para conservarlo- no puedes ser demasiado benevolente, así que reitero: adinerado y loco, o masoquista) que quiera pagar un alto precio por una tarea que otro podría efectuar incluso mejor que su técnico de preferencia, pero a un precio razonable. También puede ser que al técnico no le interese crecer en este área, sino hacer "trabajitos de vez en cuando". En ese caso, si el técnico quiere cobrar caro, bien por él.

2) Entorno económico.
Tendremos que estar de acuerdo en que no es lo mismo trabajar en un país desarrollado que en uno subdesarrollado. Tampoco es lo mismo ofrecer servicios que no son de primera necesidad en un país en donde -felizmente- la preocupación real de la gente redunda en torno al color de su próximo automóvil último modelo, que en un país empobrecido en donde las preocupaciones son dónde pasar la noche hoy por no tener techo -aunque la Constitución promueva ese Derecho Inalienable- y vivir a la intemperie, o qué comer en los próximos 5 segundos porque hace 3 días que el alimento lo vienen proporcionando las sobras y los desperdicios de otros que ni siquiera necesita el perro y que para obtenerlos hay que revolver los tachos de basura durante las noches, antes que se los lleve -si existe- el regular servicio de recolección de "desperdicios".
Esto lo escribo porque me consta que hay amigos e internautas diversos que visitan mi blog y lo leen a conciencia, y que provienen de diversas partes del mundo en donde quizás esto no sea lo más común de ver, aunque hoy se haya globalizado hasta la miseria.


P.D.: el artículo del blog desde donde saqué la imagen (y la modifiqué para que no pareciera un panfleto populista) me pareció, honestamente, patético. También digo que ese blog no cumple con los preceptos que propone, y por todo esto es que me veo en la necesidad de aclararlo. Pero como la honestidad intelectual debe preservarse por sobre todas las cosas, no decidí buscar la misma imagen en otro blog, sino aclarar esto y de todos modos y como corresponde, respetar el derecho de autor.

Por lo tanto, los precios no serán iguales en Haití, Guatemala, Angola o Zambia que en Italia, Francia, Portugal o España, por ejemplo.
De modo que no podemos guiarnos por dictados "Internacionales" (para muestra basta un botón: véase la trayectoria del Fondo Monetario Internacional en cuanto a los dirigentes de varios países a los cuales ese organismo ha asistido económicamente), sino que habrá que adaptar otras experiencias a las nuestras, o construir desde cero -lo cual siempre será altamente recomendable-, pero a veces no se contará con los tiempos necesarios para ello. Además las experiencias son valiosas en sí mismas. Siempre conviene empaparse de ellas.

3) Experiencia del técnico.

No me referiré aquí a cuántos años hace que trabaja el técnico. "25 años avalan nuestro prestigio", para mí, no es un eslogan del todo válido. En mi país, tristemente, existen empresas que vienen brindando un mal servicio técnico y un peor servicio de atención al cliente desde hace años sin que por ello los años de desempeño tengan que pesar a su favor, sino todo lo contrario. De modo que pensaremos en una introspección del técnico. Confiaremos en que él será capaz de mirar hacia dentro suyo y pensar profundamente en ello sin hacerse trampas al solitario. Y si no lo hace él por sí mismo, estimado cliente, hágalo usted por él, y bótelo si no merece su tiempo ni su esfuerzo. Busque otro, que tanto hay técnicos mediocres como los hay brillantes, y existen honestos, éticos, decentes y nobles, tanto como existen también inescrupulosos, embusteros, farsantes y ladrones. Como sucede en toda profesión o rubro. ¿O estoy mintiendo?



Sirva entonces este post como modo de tentativa de unificación de laboriosidades.
¡Empecemos a unificar esfuerzos!
¡Compartamos el conocimiento!

Hugo Napoli


La información que sigue a partir de aquí, fue tomada -y modificada- de Yahoo Méjico, tras mi constante  fracaso en la búsqueda entre páginas web uruguayas y no haber encontrado nada muy productivo. Las empresas del sector informático, en mi país, son muy recelosas, y apenas publican precios de insumos de hardware, no de servicios.

En este caso no he resaltado en cursiva las alteraciones aplicadas al texto simplemente porque olvidé hacerlo en su momento... Me puse a modificarlo y al guardar los cambios... ¡zas! se produjo el drama.
Pero, como siempre me ciño al rigor de mi propia conciencia ética, he dicho que lo anterior es de mi autoría, y digamos que el resto es de autoría compartida entre varios (incluído yo también).

¡Saludos para todos!



Tarifa por tiempo:

Si hay que cobrar por tiempo (por un trabajo innovador, de investigación, no previsto, o de límites temporales desconocidos), se cobrará U$S 10 la hora de trabajo. Hay que ser honesto con el cliente: no por tardar 5 hrs. en una tarea determinada, se le tiene que cobrar al cliente las horas perdidas mientras se buscaba información por no conocerse la solución -la cual se supone que el técnico debería saber-. Esas horas deben ser asumidas como pérdidas en capacitación personal, y sólo se debe cobrar el tiempo de trabajo que realmente fueron necesarias para solucionar un problema determinado. No pensemos como taximetristas: pensemos como técnicos de computadoras.

Si se tienen dudas acerca de lo que el técnico debe saber o no, una buena opción sería consultar el plan de enseñanza informática de cualquier curso decente de reparación de ordenadores impartido por el Estado (gratuito o de costo accesible para cualquier estudiante), y averiguar a su vez qué correlación tiene el plan escrito con el dictado en el aula. Luego solamente restaría analizar punto por punto dicho plan, revisando el conocimiento impartido y el adquirido.

Lo que habitualmente se dicta en el aula, es lo que el técnico está obligado a saber, mientras que el contenido completo del plan es lo que se supone que el técnico debería saber. Son cosas diferentes, y espero ser comprendido...

Listado de precios

En azul, figura el monto en dólares estadounidenses. En verde, su equivalente aproximado en pesos uruguayos, al momento de la redacción del artículo.
Hace un tiempo atrás, cada dólar valía $ 20... Los precios en pesos eran razonables. Hoy, el dólar subió a $30, quedando el precio en pesos fuera del mercado, a mi modo de ver.

Diagnóstico de equipo: 14.50 - 435
Incluye la revisión del equipo hasta detectar la posible falla y dar con su solución. Requiere dejar el equipo 72 hs en el taller, donde puede ser abierto para su inspección. Una vez detectada la falla, se realiza un presupuesto de reparación, y si el presupuesto es aprobado por el cliente, no se abona el diagnóstico. Si el equipo presenta una falla grave durante el diagnóstico, el técnico no será responsable de ello, quedando a su criterio si corresponde intentar repararlo sin costo o no, a menos que haya habido negligencia técnica en el procedimiento de reparación o diagnóstico desempeñado por él. El técnico tampoco puede asumir costos a nivel personal por errores surgidos en el funcionamiento de un equipo que no enciende, o que no puede mantenerse encendido y trabajando sin presentar errores, a menos que haya cobrado por ello y haya efectuado un diagnóstico de forma errónea o descuidada.

Configuración básica: $18 - 540
Incluye toda la configuración de software que no requiera instalación ni datos externos al equipo.

Configuración avanzada: $36 - 1080
Incluye configuración básica y búsqueda e instalación de controladores (drivers) 

Instalación de placa de audio o video [en computadoras] (con controladores de hardware): $29 - 870

Instalación de disquetera, unidad de CD, DVD o lector de memorias tipo flash [en PCs] (con controladores): $14.50 - 435

Instalación de disco duro [en PCs]: $29 - 870
Incluye instalación y configuración de arranque del mismo, mas no incluye instalación de software. 

Instalación de adaptadores PCMCIA [en PCs] o dispositivos PCMCIA [en computadoras portátiles]: $29 - 870
Incluye instalación de dispositivos para notebook y controladores asociados. 

Instalación de memoria RAM [en computadoras] y equipos portátiles en los cuales la RAM se puede manipular sin desarmar la máquina: $21.5 - 645. Para equipos con RAM de difícil acceso: $32 - 960

Instalación de Impresora: $36 - 700
Incluye instalación de impresoras con puerto USB o paralelo a PC. También se instalan los controladores y las aplicaciones necesarias para su funcionamiento. No se incluye el cable de datos. 

Instalación de módem o placa de red (con instalación de controladores): $21.50 - 450 

Instalación de software: $36 - 1080
Incluye la instalación de hasta tres aplicaciones -no acumulables- provistas por el técnico o el cliente si las mismas no son comercializables, y provistas o pagadas por el cliente si se trata de software original. 

Reparación de Sistema Operativo: $36 - 1080
El Sistema debe ser original y con licencia de uso adjunta. Se instala solo un Sistema por cada licencia, y no puede ser utilizada una licencia en más de un equipo. 

Instalación de Sistema Operativo: $71.5 - 2145
Incluye formateo de disco rígido, instalación de Sistema Operativo gratuito o comercial provisto por el cliente (únicamente con licencia), drivers y partición de recuperación. 

Formateo de "bajo nivel": $21.5 - 645

Limpieza de equipo: $43 - 1290
Se limpia el interior y el exterior del equipo completamente.

Garantía del trabajo:

Es obligatorio brindársela sin costo al cliente, y caducará luego de entre 30 y 90 días -según el caso- a partir de la fecha de entrega del equipo al cliente o a quien, en nombre del mismo, lo retire. La garantía solamente incluye la reparación gratuita de problemas surgidos por errores u omisiones en el trabajo desempeñado por el técnico en la reparación del ordenador. No será argumento válido el hecho de reclamo de garantía por un equipo que, habiendo transcurrido el plazo estipulado, no haya podido ser probado, encendido, o sometido a trabajos de cualquier índole en el plazo de validez asignado para esto.

Fuente original:
http://mx.answers.yahoo.com/question/index?qid=20090129064130AA8J5zp

ANEXOS

Modelo de "Orden de reparación"

con modificaciones realizadas por mí (en cursiva).

Pregunta hecha en el foro:
Trato de encontrar un modelo que esté dentro de las leyes para cuando el cliente deja una pc y en caso de no retirarla en un tiempo prudencial (hay un tiempo legal) pierde derecho sobre la misma.
Un ejemplo es el que tal vez la mayoría de nosotros ya sufrimos: te dejan la maquina, pactan la reparación y nunca más vuelven a retirarla.
Es sabido que las máquinas (...) ocupan lugar, conllevan gastos de repuestos y principalmente (...) han insumido tiempo empleado en esa reparación, que solo trajo gastos.
Si alguien tiene, será de mucha ayuda y desde ya agradecido de mi parte.

Respuesta brindada por un forista:
Yo siempre lo manejo en dos partes.
Primero hago el diagnóstico, para el cual me dejan la PC, y doy un recibo de lo que me entregan (no vaya a ser que me reclamen algo que no corresponde) y explicando la falla.
(...) Yo la analizo y entrego un reporte muy detallado de lo que encontré, explicando los problemas, las posibles soluciones, los costos aproximados de los repuestos (y dónde comprarlos), y obviamente el costo del servicio.
Junto con esta información, anexo los términos del servicio, en donde, por ejemplo, lo más imporante es:

1. La compra de los repuestos va a cargo el cliente o del prestador, mediante previo pago de los mismos, cargándosele al cliente una cifra determinada por concepto de transporte, y si el cliente lo desea, se agrega un dinero más para manejo de garantías de los repuestos (en caso de requerirlo).

2- Tienen 30 días para recoger el equipo. (...) Vencido este plazo, el prestador del servicio puede disponer de dicho equipo, no existiendo (...) ya obligación de entregar el equipo en las condiciones en que se recibió. Es decir que el cliente pierde el derecho de propiedad sobre el equipo después de estos 30 dias.

3.- Se da garantía sobre el trabajo realizado, explicando claramente que solo se garantiza el trabajo y no los repuestos.

4.- No hacerse responsable de la legitimidad del software, es decir, el cliente es absolutamente responsable del software que se encuentre en el equipo y también del que se vaya a instalar.

Si el cliente acepta, deberá firmar para validar su conformidad con todos estos puntos.
El cliente podrá pagar los repuestos, o bien adquirirlos por su parte, siguiendo las indicaciones exactas que se le den. En este último caso, los reclamos y problemas derivados de una compra de repuestos hecha por el cliente, quedarán a su cargo y responsabilidad.

Con algo asi que hiciéramos, estaríamos protegidos legalmente de todo, inclusive del problema que genera la piratería. Si necesitamos ser más estrictos, podemos agregar una copia de identificación oficial por cualquier problema.

Formulario de orden de reparación:

Encontré en Internet un formulario que aunque está protegido contra escritura (no pude modificarlo como yo hubiera querido), sirve como punto de partida para quien no disponga de uno y quiera utilizarlo o copiarlo y modificarlo, y como modelo de comparación para quienes ya posean algo similar. Si alguien puede hacer su aporte a la causa, deje aquí su enlace de descarga del material del cual disponga, o comuníquese conmigo por correo. Todos los lectores estaremos agradecidos de ello.

Descarga del formulario aquí.

Ha sido un placer, estimado visitante. Espero que vuelvas pronto. Estás invitado a dejar tu comentario.
¡Hasta siempre!