domingo, 25 de septiembre de 2011

Impresora Matricial

Las impresoras matriciales fueron las primeras que surgieron en el mercado , y aunque han perdido terreno últimamente frente a las impresoras de inyeccion de tinta, siguen siendo las únicas que pueden imprimir formularios continuos, lo que las hace una opción válida para locales comerciales que necesitan imprimir facturas.
según como sea el cabezal de impresión de dividen en dos grupos principale:de margarita y de agujas. las de margarita incorporan una bola metalica en la que estan en relieve las diversas letras simbolos a imprimir, la bola pivotea sobre un soporte movil y golpea a la cinta de tinta , con lo que se imprime la letra correspondiente. el metodo es absolutamente el mismo que se usa en muchas maquinas de escribir electricas, lo unico que las diferencia es la carencia de teclado.
las impresoras de margarita estan en completo desuso debido a que solo son capaces de escribir texto; ademas,para cambiar de tipo o tamaño de letra deberiamos cambiar la matriz de impresion (la bola) cada vez


las impresoras de agujas son las que imprimen caracteres compuestos por puntos empleando un cabezal de impresion formado por agujas accionadas electromagneticamente , practicamente igual a una maquina de escribir . fueron las primeras en salir al mercado
los parametros principales de calidad de impresion de una impresora matricial son el numero de puntos de matriz de aguajas y su velocidad. por lo general, las impresoras matriciales clasifican por el numero de agujas del cabezal de impresion dispuestas en forma de rectangulo. Normalmente son de 9 (usadas frecuentemente para imprimir reportes y materiales donde calidad no es muy importante) o 24 (que permiten mayor nitidez algunas agujas estan desaliñadas en los extremos , para marcar comas,etc.


Funcionamiento 
Este tipo de impresoras es de impresion bidireccional, va que imprimen en el desplazamiento hacia la derecha .
La PC envia una serie de codigos ASCII . estos codigos son almacenados en un buffer que es una memoria de acceso aleatorio de impresora RAM entre esos codigos existen mandatos que dicen a la impresora que utilice una tabla de fuentes bitmap , contenida en un chip . luego , esa tabla, envia a la impresora el patron de puntos que debe utilizar para crear los caracteres representados en codigos ASCII.
Para formar cada letra,numero o simbolo se activan ciertas agujas que golpean el papel en medio hay una cinta entintada. el resultado no es de muy alta calidad (24 agujas dan mejor calidad que 9) pero es de lo mas persistente que se puede conseguir y no necesita ningun  papel especial . sin embargo, la capacidad de reproducir graficos (fotos, ilustraciones complejas) es nula.
no obstante , las actuales traen varias tipografias incorporadas de buena calidad y hasta son capaces de imprimir True Type


Conclusión 
las principales ventajas de esta tecnologia son su capacidad de obtener copias multiples e imprimir formularios contunuos su velocidad en texto de la mas elevadas y ademas su costo y mantenimiento es de lo mas bajo que hoy ofrece el mercado
como contrapartida sus inconvenientes son:el ruido ciertamente elevado y la incapacidad de manejar color o varios tipos de fuentes
en general las impresoras matriciales de aguajas se posicionan como impresoras de precio reducido calidad media.-baja escaso mantenimiento y alta capacidad de impresion . el fabricante mas importante de este tipo de impresoras es Espon con diversos modelos y precios







domingo, 18 de septiembre de 2011

Cámara web


Una cámara web (en inglés webcam) es una pequeña cámara digital conectada a una computadora, la cual puede capturar imágenes y transmitirlas a través de Internet, ya sea a una página web o a otra u otras computadoras de forma privada.
Las cámaras web necesitan una computadora para transmitir las imágenes. Sin embargo, existen otras cámaras autónomas que tan sólo necesitan un punto de acceso a la red informática, bien sea ethernet o inalámbrico. Para diferenciarlas las cámaras web se las denominacámaras de red.
También son muy utilizadas en mensajería instantánea y chat como en Windows Live Messenger,Yahoo! Messenger, Ekiga, Skype etc. En el caso del MSN Messenger aparece un icono indicando que la otra persona tiene cámara web. Por lo general puede transmitir imágenes en vivo, pero también puede capturar imágenes o pequeños videos (dependiendo del programa de la cámara web) que pueden ser grabados y transmitidos por Internet. Este dispositivo se clasifica como de entrada, ya que por medio de él podemos transmitir imágenes hacia la computadora.
En astronomía amateur las cámaras web de cierta calidad pueden ser utilizadas para registrar tomas planetarias, lunares y hasta hacer algunos estudios astrométricos de estrellas binarias. Ciertas modificaciones pueden lograr exposiciones prolongadas que permiten obtener imágenes de objetos tenues de cielo profundo como galaxias, nebulosas, etc.
En el Departamento de Informática de la Universidad de Cambridge la cafetera estaba situada en un sótano. Si alguien quería un café tenia que bajar desde su despacho y, si lo había, servirse una taza. Si no lo había tenía que hacerlo. Las normas decían que el que se termina la cafetera debe rellenarla, pero siempre habia listos que no cumplian con las normas.
En 1991, Quentin Stafford-Fraser y Paul Jardetzky, que compartían despacho, hartos de bajar tres plantas y encontrarse la cafetera vacía decidieron pasar al contraataque. Diseñaron un protocolo cliente-servidor que conectándolo a una cámara, trasmitía una imagen de la cafetera a una resolución de 128 x 128 pixels. Así, desde la pantalla de su ordenador sabían cuando era el momento propicio para bajar a por un café, y de paso sabían quienes eran los que se acababan la cafetera y no la volvían a llenar. El protocolo se llamó XCoffee y tras unos meses de depuración se decidieron a comercializarlo. En 1992 salió a la venta la primera cámara web llamada XCam.
La cámara finalmente fue desconectada el 22 de agosto de 2001.
Como se ha dicho, la instalación básica de una cámara web consiste en una cámara digital conectada a una computadora, normalmente a través del puerto USB. Lo que hay que tener en cuenta es que dicha cámara no tiene nada de especial, es como el resto de cámaras digitales, y que lo que realmente le da el nombre de "cámara web" es el software que la acompaña.
El software de la cámara web toma un fotograma de la cámara cada cierto tiempo (puede ser una imagen estática cada medio segundo) y la envía a otro punto para ser visualizada. Si lo que se pretende es utilizar esas imágenes para construir un video, de calidad sin saltos de imagen, se necesitará que la cámara web alcance una tasa de unos 15 a 30 fotogramas por segundo.
En los videos destinados a ser subidos en Internet o ser enviados a dispositivos móviles, es mejor una cadencia de 14 fotogramas por segundo. De esta manera se consigue ahorrar espacio y aun así seguirá teniendo calidad, aunque podrián ser apreciados ligeros saltos en el movimiento.
Si lo que se quiere es que esas imágenes sean accesibles a través de Internet, el software se encargará de transformar cada fotograma en una imagen en formato JPG y enviarlo a unservidor web utilizando el protocolo de transmisión de ficheros (FTP).
Las cámaras web normalmente están formadas por una lente, un sensor de imagen y la circuitería necesaria para manejarlos.
Existen distintos tipos de lentes, siendo las lentes plásticas las más comunes. Los sensores de imagen pueden ser CCD (charge coupled device) o CMOS (complementary metal oxide semiconductor). Este último suele ser el habitual en cámaras de bajo coste, aunque eso no signifique necesariamente que cualquier cámara CCD sea mejor que cualquiera CMOS. Las cámaras web para usuarios medios suelen ofrecer una resolución VGA (640x480) con una tasa de unos 30 fotogramas por segundo, si bien en la actualidad están ofreciendo resoluciones medias de 1 a 1,3 MP, actualmente las cámaras de gama alta cuentan con 3, 5, 8 y hasta 10 megapixeles y son de alta definición.
La circuitería electrónica es la encargada de leer la imagen del sensor y transmitirla a la computadora. Algunas cámaras usan un sensor CMOS integrado con la circuitería en un únicochip de silicio para ahorrar espacio y costes. El modo en que funciona el sensor es equivalente al de una cámara digital normal. También pueden captar sonido , con una calidad mucho menor a la normal
Mucha gente en el mundo se ha hecho famosa por la difusión de vídeos, cómicos o no, o de emisiones permanentes, que han conseguido mover grandes cantidades económicas, al apelar al voyeurismo y al interés de las personas por las vidas de otros.
Una cámara web es un riesgo de seguridad porque alguien con los conocimientos suficientes puede acceder a ella y grabar lo que vea; sólo se debe conectar cuando se necesite.
También es un elemento presente en muchos casos de grooming de menores,1 donde estos son obligados a realizar grabaciones de tipo sexual por parte de pederastas bajo la amenaza de difundir imágenes comprometedoras de los menores obtenidas previamente mediante engaños.
Otros problemas derivados de su uso tienen que ver con la privacidad, que puede verse comprometida si se utiliza la cámara para practicar sexting.
Pese a su mala calidad de imagen, a veces se le utiliza como cámara de vigilancia.

Disco duro


En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.
El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60. Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.
Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado enservidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).
Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.
Existe otro tipo de almacenamiento que recibe el nombre de Unidades de estado sólido; aunque tienen el mismo uso y emplean las mismas interfaces, no están formadas por discos mecánicos, sino por memorias de circuitos integrados para almacenar la información. El uso de esta clase de dispositivos anteriormente se limitaba a las supercomputadoras, por su elevado precio, aunque hoy en día ya son muchísimo más asequibles para el mercado doméstico.
Dentro de un disco duro hay uno o varios discos (de aluminio o cristal) concéntricos llamados platos (normalmente entre 2 y 4, aunque pueden ser hasta 6 ó 7 según el modelo), y que giran todos a la vez sobre el mismo eje, al que están unidos. El cabezal (dispositivo de lectura y escritura) está formado por un conjunto de brazos paralelos a los platos, alineados verticalmente y que también se desplazan de forma simultánea, en cuya punta están las cabezas de lectura/escritura. Por norma general hay una cabeza de lectura/escritura para cada superficie de cada plato. Los cabezales pueden moverse hacia el interior o el exterior de los platos, lo cual combinado con la rotación de los mismos permite que los cabezales puedan alcanzar cualquier posición de la superficie de los platos..
Cada plato posee dos caras, y es necesaria una cabeza de lectura/escritura para cada cara. Si se observa el esquema Cilindro-Cabeza-Sector de más abajo, a primera vista se ven 4 brazos, uno para cada plato. En realidad, cada uno de los brazos es doble, y contiene 2 cabezas: una para leer la cara superior del plato, y otra para leer la cara inferior. Por tanto, hay 8 cabezas para leer 4 platos, aunque por cuestiones comerciales, no siempre se usan todas las caras de los discos y existen discos duros con un número impar de cabezas, o con cabezas deshabilitadas. Las cabezas de lectura/escritura nunca tocan el disco, sino que pasan muy cerca (hasta a 3 nanómetros), debido a una finísima película de aire que se forma entre éstas y los platos cuando éstos giran (algunos discos incluyen un sistema que impide que los cabezales pasen por encima de los platos hasta que alcancen una velocidad de giro que garantice la formación de esta película). Si alguna de las cabezas llega a tocar una superficie de un plato, causaría muchos daños en él, rayándolo gravemente, debido a lo rápido que giran los platos (uno de 7.200 revoluciones por minuto se mueve a 129 km/h en el borde de un disco de 3,5 pulgadas).
Hay varios conceptos para referirse a zonas del disco:
  • Plato: cada uno de los discos que hay dentro del disco duro.
  • Cara: cada uno de los dos lados de un plato.
  • Cabeza: número de cabezales.
  • Pistas: una circunferencia dentro de una cara; la pista 0 está en el borde exterior.
  • Cilindro: conjunto de varias pistas; son todas las circunferencias que están alineadas verticalmente (una de cada cara).
  • Sector : cada una de las divisiones de una pista. El tamaño del sector no es fijo, siendo el estándar actual 512 bytes, aunque próximamente serán 4 KiB. Antiguamente el número de sectores por pista era fijo, lo cual desaprovechaba el espacio significativamente, ya que en las pistas exteriores pueden almacenarse más sectores que en las interiores. Así, apareció la tecnología ZBR (grabación de bits por zonas) que aumenta el número de sectores en las pistas exteriores, y utiliza más eficientemente el disco duro.
El primer sistema de direccionamiento que se usó fue el CHS (cilindro-cabeza-sector), ya que con estos tres valores se puede situar un dato cualquiera del disco. Más adelante se creó otro sistema más sencillo: LBA (direccionamiento lógico de bloques), que consiste en dividir el disco entero en sectores y asignar a cada uno un único número. Éste es el que actualmente se usa.
Al principio los discos duros eran extraíbles, sin embargo, hoy en día típicamente vienen todos sellados (a excepción de un hueco de ventilación para filtrar e igualar la presión del aire).
El primer disco duro, aparecido en 1956, fue el IBM 350 modelo 1, presentado con la computadora Ramac I: pesaba una tonelada y su capacidad era de 5 MB. Más grande que una nevera actual, este disco duro trabajaba todavía con válvulas de vacíoy requería una consola separada para su manejo.
Su gran mérito consistía en el que el tiempo requerido para el acceso era relativamente constante entre algunas posiciones de memoria, a diferencia de las cintas magnéticas, donde para encontrar una información dada, era necesario enrollar y desenrollar los carretes hasta encontrar el dato buscado, teniendo muy diferentes tiempos de acceso para cada posición.
La tecnología inicial aplicada a los discos duros era relativamente simple. Consistía en recubrir con material magnético un disco de metal que era formateado en pistas concéntricas, que luego eran divididas en sectores. El cabezal magnético codificaba información al magnetizar diminutas secciones del disco duro, empleando un código binario de «ceros» y «unos». Los bits o dígitos binarios así grabados pueden permanecer intactos años. Originalmente, cada bit tenía una disposición horizontal en la superficie magnética del disco, pero luego se descubrió cómo registrar la información de una manera más compacta.
El mérito del francés Albert Fert y al alemán Peter Grünberg (ambos premio Nobel de Física por sus contribuciones en el campo del almacenamiento magnético) fue el descubrimiento del fenómeno conocido como magnetorresistencia gigante, que permitió construir cabezales de lectura y grabación más sensibles, y compactar más los bits en la superficie del disco duro. De estos descubrimientos, realizados en forma independiente por estos investigadores, se desprendió un crecimiento espectacular en la capacidad de almacenamiento en los discos duros, que se elevó un 60% anual en la década de 1990.
En 1992, los discos duros de 3,5 pulgadas alojaban 250 Megabytes, mientras que 10 años después habían superado 40 Gigabytes (40000 Megabytes). En la actualidad, ya contamos en el uso cotidiano con discos duros de más de 3 terabytes (TB), (3000000 Megabytes)
En 2005 los primeros teléfonos móviles que incluían discos duros fueron presentados por Samsung y Nokia, aunque no tuvieron mucho éxito ya que las memorias flash los acabaron desplazando, sobre todo por asuntos de fragilidad.

Unidad CD,DVD


En informática, el término unidad de disco se refiere a aquel dispositivo o aparato que realiza las operaciones de lectura y escritura de los medios o soportes de almacenamiento con forma de disco, refiriéndose a las unidades de disco duro, unidades de discos flexibles (disquetes: 5¼", 3½"), unidades de discos ópticos (CD, DVD, HD DVD o Blu-ray) o unidades de discos magneto-ópticos (discos Zip, discos Jaz, SuperDisk).
Los equipos que reproducen (leen) o graban (escriben) discos ópticos son conocidos como lectoras o grabadoras, respectivamente.
Las disqueteras son las unidades de lectura y escritura de disquetes.
No todos los discos son grabables:
  • Algunos solo permiten la lectura como el CD convencional.
  • Otros permiten una única escritura e infinidad de lecturas (WORM).
  • Otros limitan el número de lecturas y o escrituras: CD-R, DVD-R.
  • permiten múltiples escrituras: CD-RW, DVD-RW. Etc.
Una unidad de disco cuenta con un motor que hace funcionar un sistema de arrastre que hace giran uno o varios discos a una velocidad constante, al tiempo que un mecanismo de posicionamiento sitúa la cabeza o cabezas sobre la superficie del disco para permitir la reproducción o grabación del disco. La rotación del disco puede ser constante o parar de forma alternada.

Escaner


Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital.
Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales.
Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción con sus respectivas ventajas y desventajas que no se mencionarán aquí.
A los datos que obtienen los escáneres (normalmente imágenes RGB) se les aplica cierto algoritmo y se envían a la computadora mediante una interfaz de entrada/salida (normalmente SCSI, USB o LPT en máquinas anteriores al estándar USB). La profundidad del color depende de las características del vector de escaneado (la primera de las características básicas que definen la calidad del escáner) que lo normal es que sea de al menos 24 bits. Con 48 bits se obtiene una mejor calidad o profundidad del color.
Otro de los parámetros más relevantes de la calidad de un escáner es la resolución, medida en píxeles por pulgada (ppp). Los fabricantes de escáneres en vez de referirse a la resolución óptica real del escáner, prefieren hacer referencia a la resolución interpolada, que es mucho mayor gracias a la interpolación software.
Por hacer una comparación entre tipos de escáns más caros llegaban hasta los 5400 ppp. Un escáner de tambor tenía una resolución de 8000 a 14000 ppp.
El tercer parámetro más importante para dotar de calidad a un escáner es el rango de densidad. Si el escáner tiene un alto rango de densidad, significa que es capaz de reproducir sombras y brillos con una sola pasada.son dispositivos encargados de suscribir de lo cotidiano al computador
Hay que tener en cuneta que este documento es viejo y actualmente tenemos escáneres mejorados con mayor resolución. 2011 Nicodelix_97
El tamaño del fichero donde se guarda una imagen escaneada puede ser muy grande: una imagen con calidad de 24 bits un poco mayor que un A4 y descomprimida puede ocupar unos 100 megabytes. Los escáneres de hoy en día generan esta cantidad en unos pocos segundos, lo que quiere decir que se desearía poseer una conexión lo más rápida posible.
Antes los escáneres usaban conexiones paralelas que no podían ir más rápido de los 70 kilobytes/segundo, SCSI-II se adoptó para los modelos profesionales y aunque era algo más rápido (unos cuantos megabytes por segundo) era bastante más caro.
Hoy en día los modelos más recientes vienen equipados con conexión USB, que poseen una tasa de transferencia de 1.5 megapixel por segundo para los USB 1.1 y de hasta 60 megapixel por segundo para las conexiones USB 2.0, lo que elimina en gran medida el cuello de botella que se tenía al principio. Los dos estándares para interfaces existentes en el mercado de PC con Windows o Macs son:
  • TWAIN. Originalmente se utilizaba para uso doméstico o de bajo coste. Actualmente se usa también para el escaneado de gran volumen.
  • ISIS. Creado por Plondíxel Translations, que utiliza SCSI-II, se emplea en máquinas grandes destinadas a empresas.

Mouse



El ratón o mouse (del inglés, pronunciado [maʊs]) es un dispositivo apuntador utilizado para facilitar el manejo de un entorno gráfico en un computador. Generalmente está fabricado en plástico y se utiliza con una de las manos. Detecta su movimiento relativo en dos dimensiones por la superficie plana en la que se apoya, reflejándose habitualmente a través de un puntero o flecha en el monitor.
Hoy en día es un elemento imprescindible en un equipo informático para la mayoría de las personas, y pese a la aparición de otras tecnologías con una función similar, como la pantalla táctil, la práctica ha demostrado que tendrá todavía muchos años de vida útil. No obstante, en el futuro podría ser posible mover el cursor o el puntero con los ojos o basarse en el reconocimiento de voz.
Aunque cuando se patentó recibió el nombre de «X-Y Position Indicator for a Display System» (Indicador de posición X-Y para un sistema con pantalla), el más usado nombre de ratón (mouse en inglés) se lo dio el equipo de la Universidad de Stanford durante su desarrollo, ya que su forma y su cola (cable) recuerdan a un ratón.
En América predomina el término inglés mouse (plural mouses y no mice ) mientras que en España se utiliza prácticamente de manera exclusiva el calco semántico «ratón». El Diccionario panhispánico de dudas recoge ambos términos, aunque considera que, como existe el calco semántico, el anglicismo es innecesario. El DRAE únicamente acepta la entrada ratón para este dispositivo informático, pero indica que es un españolismo. El Diccionario de americanismos de la ASALE, publicado en 2010, consigna el anglicismo mouse.
Su funcionamiento principal depende de la tecnología que utilice para capturar el movimiento al ser desplazado sobre una superficie plana oalfombrilla de ratón especial para ratón, y transmitir esta información para mover una flecha o puntero sobre el monitor de la computadora. Dependiendo de las tecnologías empleadas en el sensor del movimiento o por su mecanismo y del método de comunicación entre éste y la computadora, existen multitud de tipos o familias.
El objetivo principal o más habitual es seleccionar distintas opciones que pueden aparecer en la pantalla, con uno o dos clic, pulsaciones, en algún botón o botones. Para su manejo el usuario debe acostumbrarse tanto a desplazar el puntero como a pulsar con uno o dos clics para la mayoría de las tareas.
Con el avance de las nuevas computadoras, el ratón se ha convertido en un dispositivo esencial a la hora de jugar, destacando no solo para seleccionar y accionar objetos en pantalla en juegos estratégicos, sino para cambiar la dirección de la cámara o la dirección de un personaje en juegos de primera o tercera persona. Comúnmente en la mayoría de estos juegos, los botones del ratón se utilizan para accionar las armas u objetos seleccionados y la rueda del ratón sirve para recorrer los objetos o armas de nuestro inventario.

Teclado


En informática un teclado es un periférico de entrada o dispositivo, en parte inspirado en el teclado de las máquinas de escribir, que utiliza una disposición de botones o teclas, para que actúen como palancas mecánicas o interruptores electrónicos que envían información a la computadora. Después de las tarjetas perforadas y las cintas de papel, la interacción a través de los teclados al estilo teletipo se convirtió en el principal medio de entrada para las computadoras. El teclado tiene entre 99 y 127 teclas aproximadamente, y está dividido en cuatro bloques:
1. Bloque de funciones: Va desde la tecla F1 a F12, en tres bloques de cuatro: de F1 a F4, de F5 a F8 y de F9 a F12. Funcionan de acuerdo al programa que esté abierto. Por ejemplo, en muchos programas al presionar la tecla F1 se accede a la ayuda asociada a ese programa.
2. Bloque alfanumérico: Está ubicado en la parte inferior del bloque de funciones, contiene los números arábigos del 1 al 0 y el alfabeto organizado como en una máquina de escribir, además de algunas teclas especiales.
3. Bloque especial: Está ubicado a la derecha del bloque alfanumérico, contiene algunas teclas especiales como Imp Pant, Bloq de desplazamiento, pausa, inicio, fin, insertar, suprimir, RePag, AvPag, y las flechas direccionales que permiten mover el punto de inserción en las cuatro direcciones.
4. Bloque numérico: Está ubicado a la derecha del bloque especial, se activa al presionar la tecla Bloq Num, contiene los números arábigos organizados como en una calculadora con el fin de facilitar la digitación de cifras. Además contiene los signos de las cuatro operaciones básicas: suma +, resta -, multiplicación * y división /; también contiene una tecla de Intro o Enter.

Disposición de las teclas

La disposición de las teclas se remonta a las primeras máquinas de escribir, las cuales eran enteramente mecánicas. Al pulsar una letra en el teclado, se movía un pequeño martillo mecánico, que golpeaba el papel a través de una cinta impregnada en tinta. Al escribir con varios dedos de forma rápida, los martillos no tenían tiempo de volver a su posición por la frecuencia con la que cada letra aparecía en un texto. De esta manera la pulsación era más lenta con el fin de que los martillos se atascaran con menor frecuencia
Sobre la distribución de los caracteres en el teclado surgieron dos variantes principales: la francesa AZERTY y la alemana QWERTZ. Ambas se basaban en cambios en la disposición según las teclas más frecuentemente usadas en cada idioma. A los teclados en su versión para el idioma español además de la Ñ, se les añadieron los caracteres de acento agudo ( ´ ), grave ( ` ), la diérisis( ¨ ) y circunflejo ( ^ ), además de la cedilla (Ç ) aunque estos caracteres son de mayor uso en francés, portugués o en catalán.
Cuando aparecieron las máquinas de escribir eléctricas, y después los ordenadores, con sus teclados también eléctricos, se consideró seriamente modificar la distribución de las letras en los teclados, colocando las letras más corrientes en la zona central; es el caso del Teclado Simplificado Dvorak. El nuevo teclado ya estaba diseñado y los fabricantes preparados para iniciar la fabricación. Sin embargo, el proyecto se canceló debido al temor de que los usuarios tuvieran excesivas incomodidades para habituarse al nuevo teclado, y que ello perjudicara la introducción de las computadoras personales, que por aquel entonces se encontraban en pleno auge.

Impresora Laser


Una impresora láser es un tipo de impresora que permite imprimir texto o gráficos, tanto en negro como en color, con gran calidad.
El dispositivo de impresión consta de un tambor fotoconductor unido a un depósito de tóner y un haz láser que es modulado y proyectado a través de un disco especular hacia el tambor fotoconductor. El giro del disco provoca un barrido del haz sobre la generatriz del tambor. Las zonas del tambor sobre las que incide el haz quedan ionizadas y, cuando esas zonas (mediante el giro del tambor) pasan por el depósito del tóner atraen el polvo ionizado de éste. Posteriormente el tambor entra en contacto con el papel, impregnando de polvo las zonas correspondientes. Para finalizar se fija la tinta al papel mediante una doble acción de presión y calor.
Para la impresión láser monocroma se hace uso de un único tóner. Si la impresión es en color es necesario contar con cuatro (uno por cada color base, CMYK).
Las impresoras láser son muy eficientes, permitiendo impresiones de alta calidad a notables velocidades, medidas en términos de "páginas por minuto" (ppm).
Dado que las impresoras láser son de por sí más caras que las de inyección de tinta, para que su compra resulte recomendable el número de impresiones debe ser elevado, puesto que el desembolso inicial se ve compensado con el menor coste de sus consumibles.
Sin embargo, también debe tenerse en cuenta que los consumibles de las impresoras de inyección de tinta se secan y quedan inservibles si no se usan durante varios meses. Así que desde este punto de vista también se puede recomendar la adquisición de una impresora láser a aquellos usuarios que hagan un uso muy intermitente de la misma.

Impresora de burbujas


La tecnología de impresora a chorro de tinta fue inventada originalmente por Canon. Se basa en el principio de que un fluido caliente produce burbujas.
El investigador que descubrió esto había puesto accidentalmente en contacto una jeringa llena de tinta con un soldador eléctrico. Esto creó una burbuja en la jeringa que hizo que la tinta saliera despedida de la jeringa.
Actualmente, los cabezales de impresoras están hechos de varios inyectores (hasta 256), equivalentes a varias jeringas, calentadas a una temperatura de entre 300 y 400°C varias veces por segundo.
Cada inyector produce una pequeña burbuja que sale eyectada como una gota muy fina. El vacío causado por la disminución de la presión crea a su vez una nueva burbuja.

Impresora


Una impresora es un periférico de ordenador que permite producir una copia permanente de textos o gráficos de documentos almacenados en formato electrónico, imprimiéndolos en medios físicos, normalmente en papel o transparencias, utilizando cartuchos de tinta o tecnologíaláser.
Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetasCompactFlashSecure Digital o Memory Stickpendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.
Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más

Monitor




Los primeros monitores surgieron en el año 1981, siguiendo el estándar MDA (Monochrome Display Adapter) eran monitores monocromáticos (de un solo color) de IBM. Estaban expresamente diseñados para modo texto y soportaban subrayado, negrita, cursiva, normal, e invisibilidad para textos. Poco después y en el mismo año salieron los monitores CGA (Color Graphics Adapter-graficos adaptados a color) fueron comercializados en 1981 al desarrollarse la primera tarjeta gráfica a partir del estándar CGA de IBM. Al comercializarse a la vez que los MDA los usuarios de PC optaban por comprar el monitor monocromático por su costo.
Tres años más tarde surgió el monitor EGA (Enhanced Graphics Adapter - adaptador de graficos mejorados) estándar desarrollado por IBM para la visualización de gráficos, este monitor aportaba más colores (16) y una mayor resolución. En 1987 surgió el estándar VGA (Video Graphics Array - graficos de video arreglados) fue un estándar muy acogido y dos años más tarde se mejoró y rediseñó para solucionar ciertos problemas que surgieron, desarrollando así SVGA (Super VGA), que también aumentaba colores y resoluciones, para este nuevo estándar se desarrollaron tarjetas gráficas de fabricantes hasta el día de hoy conocidos como S3 Graphics, NVIDIA o ATI entre otros.
Con este último estándar surgieron los monitores CRT que hasta no hace mucho seguían estando en la mayoría de hogares donde había un ordenador.
  • Píxel: unidad mínima representable en un monitor. Los monitores pueden presentar píxeles muertos o atascados.
  • Tamaño de punto o (dot pitch): el tamaño de punto es el espacio entre dos fósforos coloreados de un píxel. Es un parámetro que mide la nitidez de la imagen, midiendo la distancia entre dos puntos del mismo color; resulta fundamental a grandes resoluciones. Los tamaños de punto más pequeños producen imágenes más uniformes. un monitor de 14 pulgadassuele tener un tamaño de punto de 0,28 mm o menos. En ocasiones es diferente en vertical que en horizontal, o se trata de un valor medio, dependiendo de la disposición particular de los puntos de color en la pantalla, así como del tipo de rejilla empleada para dirigir los haces de electrones. En LCD y en CRT de apertura de rejilla, es la distancia en horizontal, mientras que en los CRT de máscara de sombra, se mide casi en diagonal. Lo mínimo exigible en este momento es que sea de 0,28mm. Para CAD o en general para diseño, lo ideal sería de 0,25mm o menor. 0,21 en máscara de sombra es el equivalente a 0.24 en apertura de rejilla.
  • Área útil: el tamaño de la pantalla no coincide con el área real que se utiliza para representar los datos.
  • Ángulo de visión: es el máximo ángulo con el que puede verse el monitor sin que se degrade demasiado la imagen. Se mide en grados.
  • Luminancia: es la medida de luminosidad, medida en Candela.
  • Tiempo de respuesta: también conocido como latencia. Es el tiempo que le cuesta a un píxel pasar de activo (blanco) a inactivo (negro) y después a activo de nuevo.
  • Contraste: es la proporción de brillo entre un píxel negro a un píxel blanco que el monitor es capaz de reproducir. Algo así como cuantos tonos de brillo tiene el monitor.
  • Coeficiente de contraste de imagen: se refiere a lo vivo que resultan los colores por la proporción de brillo empleada. A mayor coeficiente, mayor es la intensidad de los colores (30000:1 mostraría un colorido menos vivo que 50000:1).
  • Consumo: cantidad de energía consumida por el monitor, se mide en Vatio.
  • Ancho de banda: frecuencia máxima que es capaz de soportar el monitor.
  • Hz o frecuencia de refresco vertical: son 2 valores entre los cuales el monitor es capaz de mostrar imágenes estables en la pantalla.
  • Hz o frecuencia de refresco horizontal : similar al anterior pero en sentido horizontal, para dibujar cada una de las líneas de la pantalla.
  • Blindaje: un monitor puede o no estar blindando ante interferencias eléctricas externas y ser más o menos sensible a ellas, por lo que en caso de estar blindando, o semi-blindado por la parte trasera llevara cubriendo prácticamente la totalidad del tubo una plancha metálica en contacto con tierra o masa.
  • Tipo de monitor: en los CRT pueden existir 2 tipos, de apertura de rejilla o de máscara de sombra.
  • Líneas de tensión: son unas líneas horizontales, que tienen los monitores de apertura de rejilla para mantener las líneas que permiten mostrar los colores perfectamente alineadas; en 19 pulgadas lo habitual suelen ser 2, aunque también los hay con 3 líneas, algunos monitores pequeños incluso tienen una sola.

Monitores LCD

  • Ventajas:
    • El grosor es inferior por lo que pueden utilizarse en portátiles.
    • Cada punto se encarga de dejar o no pasar la luz.
    • La geometría es siempre perfecta, lo determina el tamaño del píxel
  • Desventajas:
    • Sólo pueden reproducir fielmente la resolución nativa, con el resto, se ve un borde negro, o se ve difuminado por no poder reproducir medios píxeles.
    • Por sí solas no producen luz, necesitan una fuente externa.
    • Si no se mira dentro del cono de visibilidad adecuado, desvirtúan los colores.
    • El ADC y el DAC de un monitor LCD para reproducir colores limita la cantidad de colores representable.
      • El ADC (Convertidor Digital a Analógico) en la entrada de vídeo analógica (cantidad de colores a representar).
      • El DAC (Convertidor Analógico a Digital) dentro de cada píxel (cantidad de posibles colores representables).
      • En los CRT es la tarjeta gráfica la encargada de realizar esto, el monitor no influye en la cantidad de colores representables, salvo en los primeros modelos de monitores que tenían entradas digitales TTL en lugar de entradas analógicas.

Monitores CRT

  • Ventajas:
    • Permiten reproducir una mayor variedad cromática.
    • Distintas resoluciones se pueden ajustar al monitor.
    • En los monitores de apertura de rejilla no hay moire vertical.
  • Desventajas:
    • Ocupan más espacio (cuanto más fondo, mejor geometría).
    • Los modelos antiguos tienen la pantalla curva.
    • Los campos eléctricos afectan al monitor (la imagen vibra).
    • Para disfrutar de una buena imagen necesitan ajustes por parte del usuario.
    • En los monitores de apertura de rejilla se pueden apreciar (bajo fondo blanco) varias líneas de tensión muy finas que cruzan la pantalla horizontalmente.

Datos técnicos, comparativos entre sí

  • En los CRT, la frecuencia de refresco es la que tiene la tarjeta gráfica, en los LCD no siempre es la que se le manda
  • Los CRT pueden tener modo progresivo y entrelazado, los LCD tienen otro método de representación.
  • En los CRT se pierde aproximadamente 1 pulgada del tamaño, que se utiliza para la sujeción del tubo, en los LCD es prácticamente lo que ocupa el LCD por si mismo.
  • El peso de un LCD se ve incrementado por la peana para darle estabilidad, pero el monitor en sí no pesa prácticamente nada.
  • Los LCD suelen necesitar de un transformador externo al monitor, en los CRT toda la electrónica va dentro del monitor.
  • En los LCD el consumo es menor, y la tensión de utilización por parte de la electrónica también.
  • En los CRT pueden aparecer problemas de "quemar" el fósforo de la pantalla, esto ocurre al dejar una imagen fija durante mucho tiempo, como la palabra "insert coin" en las recreativas, en los LCD los problemas pueden ser de píxeles muertos (siempre encendido o, siempre apagado), aparte de otros daños.
  • El parpadeo de ambos tipos de pantallas es debido a la baja frecuencia de refresco, unido a la persistencia del brillo del fósforo, y a la memoria de cada píxel en un CRT y LCD respectivamente, que mitigan este defecto.
    • Con alta velocidad de refresco y un tiempo grande de persistencia del fósforo, no hay parpadeo, pero si la persistencia del fósforo es baja y el refresco es bajo, se produce este problema. Sin embargo esto puede causar un efecto de desvanecimiento o visión borrosa, al permanecer aún encendido un punto, en el siguiente refresco de la pantalla.

En breve

  • ---En hardware, un monitor es un periférico de salida que muestra la información de forma gráfica de una computadora. Los monitores se conectan a la computadora a través de una tarjeta gráfica (o adaptador o tarjeta de video).
  • Un monitor puede clasificarse, según la tecnología empleada para formar las imágenes en: LCD, CRT, plasma o TFT.
  • En tanto, según el estándar, un monitor puede clasificarse en: Monitor numérico, MDA, CGA, EGA, analógico, VGA, SVGA, entro otros.
  • En cuanto a los colores que usan los monitores pueden ser monocromáticos o policromáticos.
  • Existen algunos conceptos cuantificables relacionados a los monitores y sirven para medir su calidad, estos son: píxel, paso (dot pitch), resolución, tasa de refresco, dimensión del tubo, tamaño de punto, área útil.
  • ---En software, un monitor de un programa es toda aquella herramienta que viene con un programa que sirve para controlar alguna situación. Por ejemplo el monitor de un antivirus, encargado de monitorear contínuamente la computadora para verificar que no se ejecute ningún virus.