sábado, 24 de septiembre de 2011

Ergonomia EQ 11

ERGONOMIA

La ergonomía es básicamente una tecnología de aplicación práctica e interdisciplinaria, fundamentada en investigaciones científicas, que tiene como objetivo la optimización integral de Sistemas Hombres-Máquinas, los que estarán siempre compuestos por uno o más seres humanos cumpliendo una tarea cualquiera con ayuda de una o más "máquinas" (definimos con ese término genérico a todo tipo de herramientas, máquinas industriales propiamente dichas, vehículos, computadoras, electrodomésticos, etc.).  Al decir optimización integral queremos significar la obtención de una estructura sistémica (y su correspondiente comportamiento dinámico), para cada conjunto interactuante de hombres y máquinas, que satisfaga simultánea y convenientemente a los siguientes tres criterios fundamentales:
*Participación: de los seres humanos en cuanto a creatividad tecnológica, gestión, remuneración, confort  y roles psicosociales.
* Producción: en todo lo que hace a la eficacia y eficiencia productivas del Sistema Hombres-Máquinas (en síntesis: productividad y calidad).
* Protección: de los Subsistemas Hombre (seguridad industrial e higiene laboral), de los Subsistemas Máquina (siniestros, fallas, averías, etc.) y del entorno (seguridad colectiva, ecología, etc.).

Este paradigma de las "3 P" se puede interpretar muy gráfica y sencillamente con la imagen de un trípode que sostiene a un Sistema Hombre-Máquina optimizado ergonómicamente; si a ese trípode le faltase aunque más no fuese una de sus tres patas (o sea que estuviese diseñado considerando únicamente a dos cualesquiera de las 3 P enunciadas arriba), todo se vendría al suelo (no se cumpliría la optimización ergonómica pretendida en el diseño).
La amplitud con que se han fijado estos tres criterios requiere, para su puesta en práctica, de la integración de diversos campos de acción que en el pasado se desarrollaban en forma separada y hasta contrapuesta. Esos campos de acción eran principalmente:

Mejoramiento del ambiente físico de trabajo (confort e higiene laboral).
Diseño de herramientas, maquinarias e instalaciones desde el punto de vista del usuario de las mismas.
Estructuración de métodos de trabajo y de procedimientos en general (por rendimiento y por seguridad).
Selección profesional.
Capacitación y entrenamiento laborales.
Evaluación de tareas y puestos.
Psicosociología industrial (y, con más generalidad, empresarial).
Naturalmente, una intervención ergonómica considera a todos esos factores en forma conjunta e interrelacionada.
Además, se ha desarrollado desde hace ya un tiempo una ampliación del concepto ergonómico, dando lugar a la "macroergonomía", la que es conceptualizada como la optimización ergonómica de los Sistemas Hombres-Máquinas desde el punto de vista organizacional y últimamente se encuentra en pleno desarrollo la "ecoergonomía", ampliando aún más el campo de la optimización ergonómica.
Para practicar la ergonomía se necesita, por lo tanto, poseer una buena capacidad de relación interdisciplinaria, una agudo espíritu analítico, un alto grado de síntesis creativa, los imprescindibles conocimientos científicos y, sobre todo, una firme voluntad de ayudar a los trabajadores para lograr que su labor sea lo menos penosa posible y que produzca una mayor satisfacción tanto a ellos mismos como a la sociedad en su conjunto.

2. Marco Teórico

Ergonomía
La palabra ERGONOMÍA se deriva de las palabras griegas "ergos", que significa trabajo, y "nomos", leyes; por lo que literalmente significa "leyes del trabajo", y podemos decir que es la actividad de carácter multidisciplinar que se encarga del estudio de la conducta y las actividades de las personas, con la finalidad de adecuar los productos, sistemas, puestos de trabajo y entornos a las características, limitaciones y necesidades de sus usuarios, buscando optimizar su eficacia, seguridad y confort.
Aunque existen diferentes clasificaciones de las áreas donde interviene el trabajo de los ergonomistas, en general podemos considerar las siguientes:

Antropometría
Biomecánica y fisiología
Ergonomía ambiental
Ergonomía cognitiva
Ergonomía de diseño y evaluación
Ergonomía de necesidades específicas
Ergonomía preventiva
Antropometría

La antropometría es una de las áreas que fundamentan la ergonomía, y trata con las medidas del cuerpo humano que se refieren al tamaño del cuerpo, formas, fuerza y capacidad de trabajo.
En la ergonomía, los datos antropométricos son utilizados para diseñar los espacios de trabajo, herramientas, equipo de seguridad y protección personal, considerando las diferencias entre las características, capacidades y límites físicos del cuerpo humano.
Las dimensiones del cuerpo humano han sido un tema recurrente a lo largo de la historia de la humanidad; un ejemplo ampliamente conocido es el del dibujo de Leonardo da Vinci, donde la figura de un hombre está circunscrita dentro de un cuadro y un círculo, donde se trata de describir las proporciones del ser humano "perfecto". Sin embargo, las diferencias entre las proporciones y dimensiones de los seres humanos no permitieron encontrar un modelo preciso para describir el tamaño y proporciones de los humanos.
Los estudios antropométricos que se han realizado se refieren a una población específica, como lo puede ser hombres o mujeres, y en diferentes rangos de edad.

Ergonomía Biomecánica
La biomecánica es el área de la ergonomía que se dedica al estudio del cuerpo humano desde el punto de vista de la mecánica clásica o Newtoniana, y la biología, pero también se basa en el conjunto de conocimientos de la medicina del trabajo, la fisiología, la antropometría. y la antropología.
Su objetivo principal es el estudio del cuerpo con el fin de obtener un rendimiento máximo, resolver algún tipo de discapacidad, o diseñar tareas y actividades para que la mayoría de las personas puedan realizarlas sin riesgo de sufrir daños o lesiones.
Algunos de los problemas en los que la biomecánica han intensificado su investigación ha sido el movimiento manual de cargas, y los microtraumatismos repetitivos o trastornos por traumas acumulados.
Una de las áreas donde es importante la participación de los especialistas en biomecánica es en la evaluación y rediseño de tareas y puestos de trabajo para personas que han sufrido lesiones o han presentado problemas por micortraumatismos repetitivos, ya que una persona que ha estado incapacitada por este tipo de problemas no debe de regresar al mismo puesto de trabajo sin haber realizado una evaluación y las modificaciones pertinentes, pues es muy probable que el daño que sufrió sea irreversible y se resentirá en poco tiempo. De la misma forma, es conveniente evaluar la tarea y el puesto donde se presentó la lesión, ya que en caso de que otra persona lo ocupe existe una alta posibilidad de que sufra el mismo daño después de transcurrir un tiempo en la actividad.

Ergonomía Ambiental
La ergonomía ambiental es el área de la ergonomía que se encarga del estudio de las condiciones físicas que rodean al ser humano y que influyen en su desempeño al realizar diversas actividades, tales como el ambiente térmico, nivel de ruido, nivel de iluminación y vibraciones.
La aplicación de los conocimientos de la ergonomía ambiental ayuda al diseño y evaluación de puestos y estaciones de trabajo, con el fin de incrementar el desempeño, seguridad y confort de quienes laboran en ellos.

Ergonomía Cognitiva
Los ergonomistas del área cognoscitiva tratan con temas tales como el proceso de recepción de señales e información, la habilidad para procesarla y actuar con base en la información obtenida, conocimientos y experiencia previa.
La interacción entre el humano y las máquinas o los sistemas depende de un intercambio de información en ambas direcciones entre el operador y el sistema ya que el operador controla las acciones del sistema o de la máquina por medio de la información que introduce y las acciones que realiza sobre este, pero también es necesario considerar que el sistema alimenta de cierta información al usuario por medio de señales, para indicar el estado del proceso o las condiciones del sistema.
El estudio de los problemas de recepción e interpretación de señales adquirieron importancia durante la Segunda Guerra Mundial, por ser la época en que se desarrollaron equipos más complejos comparados con los conocidos hasta el momento.
Esta área de la ergonomía tiene gran aplicación en el diseño y evaluación de software, tableros de control, y material didáctico.

Ergonomía De Diseño Y Evaluación
Los ergonomistas del área de diseño y evaluación participan durante el diseño y la evaluación de equipos, sistemas y espacios de trabajo; su aportación utiliza como base conceptos y datos obtenidos en mediciones antropométricas, evaluaciones biomecánicas, características sociológicas y costumbres de la población a la que está dirigida el diseño.
Al diseñar o evaluar un espacio de trabajo, es importante considerar que una persona puede requerir de utilizar más de una estación de trabajo para realizar su actividad, de igual forma, que más de una persona puede utilizar un mismo espacio de trabajo en diferentes períodos de tiempo, por lo que es necesario tener en cuenta las diferencias entre los usuarios en cuanto a su tamaño, distancias de alcance, fuerza y capacidad visual, para que la mayoría de los usuarios puedan efectuar su trabajo en forma segura y eficiente.
Al considerar los rangos y capacidades de la mayor parte de los usuarios en el diseño de lugares de trabajo, equipo de seguridad y trabajo, así como herramientas y dispositivos de trabajo, ayuda a reducir el esfuerzo y estrés innecesario en los trabajadores, lo que aumenta la seguridad, eficiencia y productividad del trabajador.
El humano es la parte más flexible del sistema, por lo que el operador generalmente puede cubrir las deficiencias del equipo, pero esto requiere de tiempo, atención e ingenio, con lo que disminuye su eficiencia y productividad, además de que puede desarrollar lesiones, microtraumatismos repetitivos o algún otro tipo de problema, después de un período de tiempo de estar supliendo dichas deficiencias.
En forma general, podemos decir que el desempeño del operador es mejor cuando se le libera de elementos distractores que compiten por su atención con la tarea principal, ya que cuando se requiere dedicar parte del esfuerzo mental o físico para manejar los distractores ambientales, hay menos energía disponible para el trabajo productivo.

Ergonomía De Necesidades Específicas
El área de la ergonomía de necesidades específicas se enfoca principalmente al diseño y desarrollo de equipo para personas que presentan alguna discapacidad física, para la población infantil y escolar, y el diseño de microambientes autónomos.
La diferencia que presentan estos grupos específicos radica principalmente en que sus miembros no pueden tratarse en forma "general", ya que las características y condiciones para cada uno son diferentes, o son diseños que se hacen para una situación única y una usuario específico.

Ergonomía Preventiva
La Ergonomía Preventiva es el área de la ergonomía que trabaja en íntima relación con las disciplinas encargadas de la seguridad e higiene en las áreas de trabajo. Dentro de sus principales actividades se encuentra el estudio y análisis de las condiciones de seguridad, salud y confort laboral.
Los especialistas en el área de ergonomía preventiva también colaboran con las otras especialidades de la ergonomía en el análisis de las tareas, como es el caso de la biomecánica y fisiología para la evaluación del esfuerzo y la fatiga muscular, determinación del tiempo de trabajo y descanso, etcétera

Salud informática

Las contracturas y molestias oculares son cada vez más frecuentes para quienes trabajan frente a una pantalla. Los indicadores mejoran con capacitación
Trabajar delante de una computadora puede generar artrosis, perjudicar la visión y provocar dolores de cabeza y contracturas si no se toman las precauciones adecuadas.
De cuerdo con una investigación llevada adelante por Coniseht, una firma especializada en la seguridad de los ambientes de trabajo, el 80 por ciento de las personas que pasa el día frente a una PC siente contracturas al finalizar la jornada laboral.
El relevamiento, que incluyó las opiniones de más de 450 casos en diferentes empresas, reveló además que, la mayoría de las veces, los daños para la salud de los empleados se podrían evitar fácilmente a través de capacitación y provisión de equipamiento adecuado.


Prevención de enfermedades causadas por uso de PC
Desde hace un tiempo razonable se están buscando, mediante alta tecnología, dispositivos que permitan reemplazar a los actuales mouse y teclados. Esto es así debido a la aparición de muchas afecciones provocadas por el uso intensivo de computadoras (RSI) y, por otro lado, buscando la beta comercial a través del mejoramiento de los accesorios utilizados en el mundo de los videojuegos.


Biometria
La biometría no se puso en práctica en las culturas occidentales hasta finales del siglo XIX, pero era utilizada en China desde al menos el siglo XIV. Un explorador y escritor que respondía al nombre de Joao de Barros escribió que los comerciantes chinos estampaban las impresiones y las huellas de la palma de las manos de los niños en papel con tinta. Los comerciantes hacían esto como método para distinguir entre los niños jóvenes.

En Occidente, la identificación confiaba simplemente en la "memoria fotográfica" hasta que Alphonse Bertillon, jefe del departamento fotográfico de la Policía de París, desarrolló el sistema antropométrico (también conocido más tarde como Bertillonage) en 1883.


Éste era el primer sistema preciso, ampliamente utilizado científicamente para identificar a criminales y convirtió a la biométrica en un campo de estudio. Funcionaba midiendo de forma precisa ciertas longitudes y anchuras de la cabeza y del cuerpo, así como registrando marcas individuales como tatuajes y cicatrices. El sistema de Bertillon fue adoptado extensamente en occidente hasta que aparecieron defectos en el sistema - principalmente problemas con métodos distintos de medidas y cambios de medida. Después de esto, las fuerzas policiales occidentales comenzaron a usar la huella dactilar - esencialmente el mismo sistema visto en China cientos de años antes.


En estos últimos años la biométrica ha crecido desde usar simplemente la huella dactilar, a emplear muchos métodos distintos teniendo en cuenta varias medidas físicas y de comportamiento. Las aplicaciones de la biometría también han aumentado - desde sólo identificación hasta sistemas de seguridad y más.

La idea para usar patrones de iris como método de identificación fue propuesto en 1936 por el oftalmólogo Frank Burch. Para los 1980’s la idea ya había aparecido en películas de James Bond, pero permanecía siendo ciencia ficción.

En 1985 los Doctores Leonard Flom y Aran Safir retomaron la idea. Su investigación y documentación les concedió una patente en 1987. En 1989 Flom y Safir recurrieron a John Daugman para crear algoritmos para el reconocimiento de iris. Estos algoritmos, patentados por Daugman en 1994 y que son propiedad de Iridian Technologies, son la base para todos los productos de reconocimiento de iris.

En 1993 la Agencia Nuclear de Defensa empezó a trabajar con IriScan, Inc. para desarrollar y probar un prototipo. 18 meses después el primer prototipo se completó y esta disponible comercialmente.


Funcionamiento y rendimiento
En un sistema de Biometria típico, la persona se registra con el sistema cuando una o más de sus características físicas y de conducta es obtenida, procesada por un algoritmo numérico, e introducida en una base de datos. Idealmente, cuando entra, casi todas sus características concuerdan; entonces cuando alguna otra persona intenta identificarse, no empareja completamente, por lo que el sistema no le permite el acceso. Las tecnologías actuales tienen tasas de error que varían ampliamente (desde valores bajos como el 60%, hasta altos como el 99,9%).

El rendimiento de una medida biométrica se define generalmente en términos de tasa de falso positivo (False Acceptance Rate o FAR), la tasa de falso negativo (False NonMatch Rate o FNMR, también False Rejection Rate o FRR), y el fallo de tasa de alistamiento (Failure-to-enroll Rate, FTR o FER).

En los sistemas biométricos reales el FAR y el FRR puede transformarse en los demás cambiando cierto parámetro. Una de las medidas más comunes de los sistemas biométricos reales es la tasa en la que el ajuste en el cual acepta y rechaza los errores es igual: la tasa de error igual (Equal Error Rate o EER), también conocida como la tasa de error de cruce (Cross-over Error Rate o CER). Cuanto más bajo es el EER o el CER, se considera que el sistema es más exacto.

Las tasas de error anunciadas implican a veces elementos idiosincrásicos o subjetivos. Por ejemplo, un fabricante de sistemas biométricos fijó el umbral de aceptación alto, para reducir al mínimo las falsas aceptaciones; en la práctica, se permitían tres intentos, por lo que un falso rechazo se contaba sólo si los tres intentos resultaban fallidos (por ejemplo escritura, habla, etc.), las opiniones pueden variar sobre qué constituye un falso rechazo. Si entro a un sistema de verificación de firmas usando mi inicial y apellido, ¿puedo decir legítimamente que se trata de un falso rechazo cuando rechace mi nombre y apellido?

A pesar de estas dudas, los sistemas biométricos tienen un potencial para identificar a individuos con un grado de certeza muy alto. La prueba forense del ADN goza de un grado particularmente alto de confianza pública actualmente (ca. 2004) y la tecnología está orientándose al reconocimiento del iris, que tiene la capacidad de diferenciar entre dos individuos con un ADN idéntico.
 

sábado, 17 de septiembre de 2011

Dispositivos de Almacenamiento EQ 10

Disco DURO
En informática, un disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.

El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.

Los tamaños también han variado mucho, desde los primeros discos IBM hasta los formatos estandarizados actualmente: 3,5" los modelos para PC y servidores, 2,5" los modelos para dispositivos portátiles. Todos se comunican con la computadora a través del controlador de disco, empleando una interfaz estandarizado. Los más comunes hoy día son IDE (también llamado ATA o PATA), SCSI (generalmente usado en servidores y estaciones de trabajo), Serial ATA y FC (empleado exclusivamente en servidores).
DISCO DURO DE 2.5 PULGADAS
Son utilizados para la laptopun disco duro o disco rígido (en inglés Hard Disk Drive, HDD) es un dispositivo de almacenamiento de datos no volátil que emplea un sistema de grabación magnética para almacenar datos digitales. Se compone de uno o más platos o discos rígidos, unidos por un mismo eje que gira a gran velocidad dentro de una caja metálica sellada. Sobre cada plato, y en cada una de sus caras, se sitúa un cabezal de lectura/escritura que flota sobre una delgada lámina de aire generada por la rotación de los discos.


El primer disco duro fue inventado por IBM en 1956. A lo largo de los años, los discos duros han disminuido su precio al mismo tiempo que han multiplicado su capacidad, siendo la principal opción de almacenamiento secundario para PC desde su aparición en los años 60.Los discos duros han mantenido su posición dominante gracias a los constantes incrementos en la densidad de grabación, que se ha mantenido a la par de las necesidades de almacenamiento secundario.


DISCO DURO DE 3.5 PULGADAS
Son utilizados para computadoras de escritorio,Para poder utilizar un disco duro, un sistema operativo debe aplicar un formato de bajo nivel que defina una o más particiones. La operación de formateo requiere el uso de una fracción del espacio disponible en el disco, que dependerá del formato empleado. Además, los fabricantes de discos duros, SSD y tarjetas flash miden la capacidad de los mismos usando prefijos SI, que emplean múltiplos de potencias de 1000 según la normativa IEC, en lugar de los prefijos binarios clásicos de la IEEE, que emplean múltiplos de potencias de 1024, y son los usados mayoritariamente por los sistemas operativos. Esto provoca que en algunos sistemas operativos sea representado como múltiplos 1024 o como 1000, y por tanto existan ligeros errores, por ejemplo un Disco duro de 500 GB, en algunos sistemas operativos sea representado como 465 GiB (Según la IEC Gibibyte, o Gigabyte binario, que son 1024 Mebibytes) y en otros como 465 GB.

DISCOS EXTERNOS
Desde que los CD-R y CD-RW se han extendido como almacenamiento barato, se ha cambiado la filosofía de tener el mismo tipo de almacenamiento de disco intercambiables tanto para almacenamiento como para copia de seguridad o almacenamiento definitivo. Antes normalmente eran discos magnéticos o magneto-ópticos. Ahora se tiende a tener el almacenamiento óptico para un uso más definitivo y otro medio sin discos intercambiable para transporte. Este el caso de las memorias USB y los discos duros portátiles.

DISCOS OPTICOS
Es un disco circular en el cual la informacion se codifica se guarda y se almacena.un disco óptico es un disco circular en el cual la información se codifica, se guarda, almacena... haciendo unos surcos, pits, microscópicos con un láser sobre una de las superficies planas que lo componen, que suele ser de aluminio. El material de codificación se sitúa por encima de un sustrato de mayor grosor, generalmente de policarbonato, que constituye la mayor parte del disco. El patrón de codificación sigue un recorrido en espiral continuo que cubre la superficie del disco entera, extendiéndose desde la pista más interna hasta la más externa. El acceso a los datos, lectura, se realiza cuando esta superficie es iluminada con un haz de láser generado por un diodo láser dentro de la unidad de disco óptico la cual hace girar el disco a velocidades alrededor de 200 RPM a 4000 RPM o más, dependiendo del tipo de unidad, el formato de disco, y la distancia desde el cabezal de lectura hasta el centro del disco, las pistas internas son leídas a una velocidad mayor.




CD
Almacena cualquier tipo de informacion como musica,video e imagenes. El disco compacto (conocido popularmente como CD por las siglas en inglés de Compact Disc) es un soporte digital óptico utilizado para almacenar cualquier tipo de información (audio, imágenes, vídeo, documentos y otros datos). En español se puede escribir cedé (como se pronuncia) porque ha sido aceptada y lexicalizada por el uso; en gran parte de Latinoamérica se pronuncia [sidí], como en inglés, pero la Asociación de Academias de la Lengua Española desaconseja —en su Diccionario panhispánico de dudas— esa pronunciación. También se acepta cederrón (de CD-ROM). Hoy en día, sigue siendo el medio físico preferido para la distribución de audio.

CDR
Se puede grabar en varias sesiones la informacion agregada no puede ser borrada o sobreescrita.Actualmente las grabadoras llegan a grabar CD-R a 52x, unos 7800 KB/s.
Para muchos ordenadores es difícil mantener esta tasa de grabación y por ello la grabadoras tienen sistemas que permiten retomar la grabación ante un corte en la llegada de datos.




CD-ROM
Contiene datos de acceso pero sin permisos de escritura,solo es de letura y no se puede escribir.




DVD
Solo se puede escribir una vez y sirve para la distribucion de videos.El DVD usa un método de codificación más eficiente en la capa física: los sistemas de detección y corrección de errores utilizados en el CD, como la comprobación de redundancia cíclica CRC, la codificación Reed Solomon - Product Code, (RS-PC), así como la codificación de línea Eight-to-Fourteen Modulation, la cual fue reemplazada por una versión más eficiente, EFM Plus, con las mismas características que el EFM clásico. El subcódigo de CD fue eliminado. Como resultado, el formato DVD es un 47% más eficiente que el CD-ROM, que usa una tercera capa de corrección de errores.




DVD-RW
Regrabable,se puede grabar y borrar la informacion varias veces.Fue creado por Pioneer en noviembre de 1999 y es el formato contrapuesto al DVD+RW, apoyado además por Panasonic, Toshiba, Hitachi, NEC, Samsung, Sharp, Apple Computer y el DVD Forum.






CD-RW
Almacena cualquier tipo de informacion.Puede ser grabado varias veces.Un disco compacto regrabable, conocido popularmente como CD-RW (sigla del inglés de Compact Disc ReWritable pero originalmente la R y la W se usaban como los atributos del CD que significan "read" y "write") es un soporte digital óptico utilizado para almacenar cualquier tipo de información. Este tipo de CD puede ser grabado múltiples veces, ya que permite que los datos almacenados sean borrados. Fue desarrollado conjuntamente en 1996 por las empresas Sony y Philips, y comenzó a comercializarse en 1997. Hoy en día tecnologías como el DVD han desplazado en parte esta forma de almacenamiento, aunque su uso sigue vigente.

BLU-RAY
Es un formato de disco optico de nueva generacion de 12 cm de diametro pra avideo de alta definicion y almacenamiento de datos de alta densidad. también conocido como Blu-ray o BD, es un formato de disco óptico de nueva generación de 12 cm de diámetro (igual que el CD y el DVD) para vídeo de gran definición y almacenamiento de datos de alta densidad. Su capacidad de almacenamiento llega a 25 GB por capa, aunque Sony y Panasonic han desarrollado un nuevo índice de evaluación (i-MLSE) que permitiría ampliar un 33% la cantidad de datos almacenados,desde 25 a 33,4 GB por capa.Aunque otros apuntan que el sucesor del DVD no será un disco óptico, sino la tarjeta de memoria. No obstante, se está trabajando en el HVD o Disco holográfico versátil con 3,9 TB. El límite de capacidad en las tarjetas de formato SD/MMC está ya en 128 GB, teniendo la ventaja de ser regrabables al menos durante 5 años.En febrero de 2008, después de la caída de muchos apoyos al HD DVD, Toshiba decidió abandonar la fabricación de reproductores y las investigaciones para mejorar su formato.






DVD DE DOBLE CAPA
Permiten doble capacidad de grabacionDVD+R DL (DL del inglés "Double Layer", "Doble Capa"), también llamado DVD+R8000, es un derivado de DVD+R formato creado por la DVD+RW Horde y fue introducido en octubre de 2003. Los discos DVD+R DL emplean 2 capas grabables, cada una con una capacidad cercana a los 4.7 GB, que es la capacidad de un disco DVD con una sola capa, dándole una capacidad total de 8.55 GB (ó 7.66 GiB). Estos discos pueden ser leídos en muchos de los dispositivos DVD (las unidades más antiguas tienen menos capacidad) y sólo pueden ser creados usando DVD+R DL y dispositivos Super Multi. Estos discos aparecen en el mercado a mediados del 2004, con precios comparables a los discos de una sola capa, aunque con capacidades de escritura/lectura menor.



MINI CD
Son discos compactos de formato reducido.Este tipo de discos no pueden ser utilizados en la mayoría de los dispositivos con ranura de carga, tales como los reproductores de CD para Coches y de algunos computadores. Hay adaptadores disponibles donde se puede insertar en Mini CD; el adaptador extiende el ancho del CD al tamaño de un CD de 120 mm, de manera que pueda ser utilizado en cualquier dispositivo con ranura de carga. No existen adaptadores conocidos para Business Card CD.






MINI DVD
Fue desarrollado para peliculas.El mini-DVD es un disco de 80 mm de diámetro. En grabación normal (calidad DVD estándar) admite 30 minutos de vídeo o 1,4 GB de datos (y los de 2 capas, hasta 2,92 GB). En modo SLP, comparable en calidad al VHS, puede grabar hasta 120 minutos de vídeo. Fue desarrollado para ser usado en cámaras de vídeo, como su versión de 120 mm, puede ser reproducida en la mayoría de reproductores de DVD.




CD PRINTABLE
Son discos con la base impresa en donde hay un determinado diseño. los printables, son para impresoras de tinta, como la Epson R220, los lightscribe es una tecnologia, de "quemado" por laser, para generar impresion y lo hace el quemador directamente, la teconologia la desarrollo Lite-on y HP

=AKI UN VIDEO DE TODOS LOS TIPOS DE CD=

Dispositivos de salida EQ 9


Dispositivos de salida


Monitor o Pantalla:
Es el dispositivo en el que se muestran las imágenes generadas por el adaptador de vídeo del ordenador o computadora. El término monitor se refiere normalmente a la pantalla de vídeo y su carcasa. El monitor se conecta al adaptador de vídeo mediante un cable. Evidentemente, es la pantalla en la que se ve la información suministrada por el ordenador. En el caso más habitual se trata de un aparato basado en un tubo de rayos catódicos (CRT) como el de los televisores, mientras que en los portátiles es una pantalla plana de cristal líquido (LCD).

Adaptador: suele tratarse de una placa de circuito impreso (también llamada tarjeta de interfaz) que permite que el ordenador o computadora utilice un periférico para el cual todavía carece de las conexiones o placas de circuito necesarias. Por lo general, los adaptadores se emplean para permitir la ampliación del sistema al hardware nuevo o diferente. En la mayoría de los casos, es un término que se emplea en vídeo, como en los casos de Adaptador de Vídeo Monocromo (MDA), Adaptador para Gráficos Color (CGA) y Adaptador de Gráficos Mejorado (EGA). Es común que una única tarjeta adaptadora contenga más de un adaptador, es decir que maneje más de un elemento de hardware.
Monitor analógico es un monitor visual capaz de presentar una gama continua (un número infinito) de colores o tonalidades de gris, a diferencia de un monitor digital, que sólo es capaz de presentar un número finito de colores. Un monitor color, a diferencia del monocromo, tiene una pantalla revestida internamente con trifósforo rojo, verde y azul dispuesto en bandas o configuraciones. Para iluminar el trifósforo y generar un punto de color, este monitor suele incluir también tres cañones de electrones, en este caso uno para cada color primario. Para crear colores como el amarillo, el rosado o el anaranjado, los tres colores primarios se mezclan en diversos grados.
Monitor digital es un monitor de vídeo capaz de presentar sólo un número fijo de colores o tonalidades de gris.
Monitor monocromo es un monitor que muestra las imágenes en un solo color: negro sobre blanco o ámbar o verde sobre negro. El término se aplica también a los monitores que sólo muestran distintos niveles de gris. Se considera que los monitores monocromos de alta calidad son generalmente más nítidos y más legibles que los monitores de color con una resolución equivalente.
El número de puntos que puede representar el monitor por pantalla, tanto en horizontal como en vertical, se denomina resolución. Cuanto mayor sea la resolución del monitor mejor será la calidad de la imagen en pantalla y ésta debe estar en concordancia con el tamaño del monitor, por lo que en la actualidad no se recomienda un monitor menor de 17" ó 15".

El parámetro que mide la nitidez de la imagen se le denomina tamaño del punto (dot pitch) y mide la distancia entre dos puntos del mismo color. El mínimo exigible en la actualidad es 0,28 mm, no debiéndose admitir nada superior, aunque lo ideal sería de 0,25 mm (o menor). La frecuencia de los monitores es el denominado refresco de pantalla y se mide en Hz (hertzios), que serían equivalentes a los fotogramas por segundo de una película. Realmente quien proporciona estos refrescos es la tarjeta gráfica que tengamos instalada en nuestro ordenador.

Por lo que respecta a los ordenadores portátiles usan pantallas de cristal líquido (LCD). Suele haber de dos tipos: Dual Scan (DSTN) y de Matriz Activa (TFT), que tiene una visualización mucho mejor que la primera.
Impresoras:
Como indica su nombre, la impresora es el periférico que el ordenador utiliza para presentar información impresa en papel. Las primeras impresoras nacieron muchos años antes que el PC e incluso antes que los monitores, siendo durante años el método más usual para presentar los resultados de los cálculos en aquellos primitivos ordenadores, todo un avance respecto a las tarjetas y cintas perforadas que se usaban hasta entonces.

Aunque en nada se parecen las modernas impresoras a sus antepasadas de aquellos tiempos, no hay duda de que igual que hubo impresoras antes que PCs, las habrá después de éstos, aunque se basen en tecnologías que aún no han sido siquiera inventadas. Resulta muy improbable que los seres humanos abandonemos totalmente el papel por una fría pantalla de ordenador.

 Generalidades y definiciones

Antes de adentrarnos en este complejo mundo de las impresoras, vamos a exponer algunos de los conceptos básicos sobre las mismas.

Velocidad

La velocidad de una impresora se suele medir con dos parámetros:

ppm: páginas por minuto que es capaz de imprimir;
cps: caracteres (letras) por segundo que es capaz de imprimir.
Actualmente se usa casi exclusivamente el valor de ppm, mientras que el de cps se reserva para las pocas impresoras matriciales que aún se fabrican. De cualquier modo, los fabricantes siempre calculan ambos parámetros de forma totalmente engañosa; por ejemplo, cuando se dice que una impresora de tinta llega a 7 páginas por minuto no se nos advierte de que son páginas con como mucho un 5% de superficie impresa, en la calidad más baja, sin gráficos y descontando el tiempo de cálculo del ordenador.

 Resolución

Probablemente sea el parámetro que mejor define a una impresora. La resolución es la mejor o peor calidad de imagen que se puede obtener con la impresora, medida en número de puntos individuales que es capaz de dibujar una impresora.


TIPOS DE MONITORES


1. Monocromáticos: tiene un tubo de rayos catódicos cuyo recubrimiento de fósforo produce un solo color.

2. TTL : son monocromáticos o TTL (lógica de transistor a transistor)los cuales fueron creados para trabajar con las tarjetas
Hercules.

3. Pantalla TTL-RGB CGA : es un monitor digital a color, que trabaja con una tarjeta
CGA(color graphics adapter) reconocía dos
posibles estados para cada uno de los tres
colores primarios (rojo, verde, azul); encendido o apagado, por lo que se limitaba
a 8 colores.

4. Pantalla TTL-RGB EGA y monitores análogos VGA: es un monitor a color que trabaja con una tarjeta EGA (enhanced graphic adaptor),
en lugar de utilizar la señal de intensidad, reciben una segunda información de cada color primario, logrando una variedad de matices y alcanzando los 16 colores.
Los monitores analógicos que utilizan
tarjetas VGA, pueden representar la información de cada color por una señal variable, puede obtenerse una cantidad de colores hasta de 16,5 millones. 


CAMARA
Puede capturar imagenes y transmitirlas a traves de internet.También son muy utilizadas en mensajería instantánea y chat como en Windows Live Messenger, Yahoo! Messenger, Ekiga, Skype etc. En el caso del MSN Messenger aparece un icono indicando que la otra persona tiene cámara web. Por lo general puede transmitir imágenes en vivo, pero también puede capturar imágenes o pequeños videos (dependiendo del programa de la cámara web) que pueden ser grabados y transmitidos por Internet. Este dispositivo se clasifica como de entrada, ya que por medio de él podemos transmitir imágenes hacia la computadora.El software de la cámara web toma un fotograma de la cámara cada cierto tiempo (puede ser una imagen estática cada medio segundo) y la envía a otro punto para ser visualizada. Si lo que se pretende es utilizar esas imágenes para construir un video, de calidad sin saltos de imagen, se necesitará que la cámara web alcance una tasa de unos 15 a 30 fotogramas por segundo.En los videos destinados a ser subidos en Internet o ser enviados a dispositivos móviles, es mejor una cadencia de 14 fotogramas por segundo. De esta manera se consigue ahorrar espacio y aun así seguirá teniendo calidad, aunque podrián ser apreciados ligeros saltos en el movimiento.
Si lo que se quiere es que esas imágenes sean accesibles a través de Internet, el software se encargará de transformar cada fotograma en una imagen en formato JPG y enviarlo a un servidor web utilizando el protocolo de transmisión de ficheros (FTP).

    
                               
                                                                    
                                       IMPRESORA
Permite producir una copia permanente de textos o graficos de documentos alamacenados en formato electronico.
Las impresoras suelen diseñarse para realizar trabajos repetitivos de poco volumen, que no requieran virtualmente un tiempo de configuración para conseguir una copia de un determinado documento. Sin embargo, las impresoras son generalmente dispositivos lentos (10 páginas por minuto es considerado rápido), y el coste por página es relativamente alto.Para trabajos de mayor volumen existen las imprentas, que son máquinas que realizan la misma función que las impresoras pero están diseñadas y optimizadas para realizar trabajos de impresión de gran volumen como sería la impresión de periódicos. Las imprentas son capaces de imprimir cientos de páginas por minuto o más.
Muchas impresoras son usadas como periféricos, y están permanentemente unidas al ordenador por un cable. Otras impresoras, llamadas impresoras de red, tienen una interfaz de red interno (típicamente wireless o ethernet), y que puede servir como un dispositivo para imprimir en papel algún documento para cualquier usuario de la red.
Además, muchas impresoras modernas permiten la conexión directa de aparatos de multimedia electrónicos como las tarjetas CompactFlash, Secure Digital o Memory Stick, pendrives, o aparatos de captura de imagen como cámaras digitales y escáneres. También existen aparatos multifunción que constan de impresora, escáner o máquinas de fax en un solo aparato. Una impresora combinada con un escáner puede funcionar básicamente como una fotocopiadora.
+




                                          PLOTTER
Es una maquina que se utiliza junto con la computadora e imprime de forma lineal.Plotters ofrecen la manera más rápida de producir de manera eficiente dibujos de gran tamaño o color de alta resolución de gráficos vectoriales en la memoria del ordenador era muy caro y la potencia del procesador es muy limitado, y otros tipos de impresoras habían limitado las capacidades gráficas de la producción.
Pen plotters have essentially become obsolete, and have been replaced by large-format inkjet printers and LED toner based printers. Plotters han convertido esencialmente en obsoletos, y han sido sustituidos por gran formato impresoras de inyección de tinta y toner impresoras LED base. Such devices may still understand vector languages originally designed for plotter use, because in many uses, they offer a more efficient alternative to raster data. Estos dispositivos aún puede entender los lenguajes vector originalmente diseñado para el uso plotter, ya que en muchas aplicaciones, que ofrecen una alternativa más eficiente a los datos raster. Hay muchos tipos de pen plotter, algunos de los cuales ya no son producidos en masa. técnico pluma consejos se utilizan con frecuencia, muchos de los cuales pueden ser renovados con partes y suministros para la elaboración manual de las plumas. Early HP flatbed and grit wheel plotters used small, proprietary fiber-tipped or plastic nib disposable pens. Los primeros plotters HP rueda plana y la arena utilizada pequeños corrales, propiedad de punta de fibra con punta de plástico desechable. Además, como la pluma de punta de fibra se utiliza, la punta se desgasta lentamente en el medio de trazado, produciendo una cada vez más amplia, la línea manchada.

jueves, 8 de septiembre de 2011

Dispositivos de entrada...EQ 8

Dispositivos de entrada
Son los que envían información a la unidad de procesamiento, en código binario. Dispositivos de entrada (entre otros):
Teclado: Un teclado se compone de una serie de teclas agrupadas en funciones que podremos describir:

•Teclado alfanumérico: es un conjunto de 62 teclas entre las que se encuentran las letras, números, símbolos ortográficos, Enter, alt...etc.
•Teclado de Función: es un conjunto de 13 teclas entre las que se encuentran el ESC, tan utilizado en sistemas informáticos, más 12 teclas de función. Estas teclas suelen ser configurables pero por ejemplo existe un convenio para asignar la ayuda a F1.
•Teclado Numérico: se suele encontrar a la derecha del teclado alfanumérico y consta de los números así como de un Enter y los operadores numéricos de suma, resta,... etc.
•Teclado Especial: son las flechas de dirección y un conjunto de 9 teclas agrupadas en 2 grupos; uno de 6 (Inicio y fin entre otras) y otro de 3 con la tecla de impresión de pantalla entre ellas.
Recomendaciones: En este apartado es conveniente distinguir entre dos tipos de teclado:



•De Membrana: Fueron los primeros que salieron y como su propio nombre indica presentan una membrana entre la tecla y el circuito que hace que la pulsación sea un poco más dura.
•Mecánico: Estos nuevos teclados presentan otro sistema que hace que la pulsación sea menos traumática y más suave para el usuario.
•Mouse: A este periférico se le llamó así por su parecido con este roedor. Suelen estar constituidos por una caja con una forma más o menos anatómica en la que se encuentran dos botones que harán los famosos clicks de ratón siendo transmitidos por el cable al puerto PS/II o al puerto de serie (COM1 normalmente). Dentro de esta caja se encuentra una bola que sobresale de la caja a la que se pegan 4 rodillos ortogonalmente dispuestos que serán los que definan la dirección de movimiento del ratón. El ratón se mueve por una alfombrilla ocasionando el movimiento de la bola que a su vez origina el movimiento de uno o varios de estos rodillos que se transforma en señales eléctricas y producen el efecto de desplazamiento del ratón por la pantalla del ordenador.
Existen modelos modernos en los que la transmisión se hace por infrarrojos eliminando por tanto la necesidad de cableado. Otros presentan la bola en la parte superior de la caja no estando por tanto en contacto con la alfombrilla y teniendo que ser movida por los dedos del usuario aunque se origina el mismo efecto.

•Micrófono: Periférico por el cual transmite sonidos que el ordenador capta y los reproduce, los salva, etc. Se conecta a la tarjeta de sonido.

•Escáner: Es un dispositivo utiliza un haz luminoso para detectar los patrones de luz y oscuridad (o los colores) de la superficie del papel, convirtiendo la imagen en señales digitales que se pueden manipular por medio de un software de tratamiento de imágenes o con reconocimiento óptico de caracteres. Un tipo de escáner utilizado con frecuencia es el flatbed, que significa que el dispositivo de barrido se desplaza a lo largo de un documento fijo. En este tipo de escáneres, como las fotocopiadoras de oficina, los objetos se colocan boca abajo sobre una superficie lisa de cristal y son barridos por un mecanismo que pasa por debajo de ellos. Otro tipo de escáner flatbed utiliza un elemento de barrido instalado en una carcasa fija encima del documento.
Un tipo muy popular de escáner es el escáner de mano, también llamado hand-held, porque el usuario sujeta el escáner con la mano y lo desplaza sobre el documento. Estos escáneres tienen la ventaja de ser relativamente baratos, pero resultan algo limitados porque no pueden leer documentos con una anchura mayor a 12 o 15 centímetros.

•Lector de código de barras: dispositivo que mediante un haz de láser lee dibujos formados por barras y espacios paralelos, que codifica información mediante anchuras relativas de estos elementos. Los códigos de barras representan datos en una forma legible por el ordenador, y son uno de los medios más eficientes para la captación automática de datos.
•Cámara digital: Cámara que se conecta al ordenador y le transmite las imágenes que capta, pudiendo ser modificada y retocada, o volverla a tomar en caso de que este mal. Puede haber varios tipos:
•Cámara de fotos digital: Toma fotos con calidad digital, casi todas incorporan una pantalla LCD (Liquid Cristal Display) donde se puede visualizar la imagen obtenida. Tiene una pequeña memoria donde almacena fotos para después transmitirlas a un ordenador.
•Cámara de video: Graba videos como si de una cámara normal se tratara, pero las ventajas que ofrece en estar en formato digital, que es mucho mejor la imagen, tiene una pantalla LCD por la que ves simultáneamente la imagen mientras grabas. Se conecta al PC y este recoge el video que has grabado, para poder retocarlo posteriormente con el software adecuado.
•Webcam: Es una cámara de pequeñas dimensiones. Sólo es la cámara, no tiene LCD. Tiene que estar conectada al PC para poder funcionar, y esta transmite las imágenes al ordenador. Su uso es generalmente para videoconferencias por internet, pero mediante el software adecuado, se pueden grabar videos como una cámara normal y tomar fotos estáticas.
•Lápiz Óptico: dispositivo señalador que permite sostener sobre la pantalla un lápiz que está conectado al ordenador y con el que es posible seleccionar elementos u opciones (el equivalente a un clic de mouse o ratón), bien presionando un botón en un lateral del lápiz óptico o presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla. El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.

TECLADO
Se trata de un dispositivo que integra una gran cantidad de teclas, semejantes a las de una máquina de escribir mecánica. También tiene una serie de botones extras que realizan otras funciones específicas. A través del tiempo, este dispositivo es de los que menos modificaciones han sufrido, ya que por excelencia es el periférico de entrada más común de las computadoras y de los más indispensables.
Los teclados y computadoras de escritorio, reemplazaron del mercado el uso de las máquinas de escribir mecánicas y máquinas de escribir eléctricas
Básicamente hay una clasificación de 4 tipos estándar:
1.- Teclado PC XT: PC XT significa ("Personal Computer eXtended Tecnology"). Es el primer teclado estándar que data de 1981, cuenta con 83 teclas, utiliza el conector PS/1 y tenía la siguiente disposición de las teclas:
2.- Teclado PC AT: PC AT significa ("Personal Computer Advanced Tecnology"). Data de 1983, cuenta con 84 teclas, utiliza el conector PS/1, se le agrega un panel con luces que indica los estados de 3 teclas en especial,  tenía la siguiente disposición de las teclas:
3.- Teclado extendido: Data de 1987, cuenta con 101 teclas, utiliza el conector PS/2, y cuenta con la disposición de teclas del teclado actual:
4.- Teclado extendido para Microsoft® Windows de 104 teclas: Lo introduce Microsoft® para ser utilizado con el sistema operativo Windows 98, integrándole 2 teclas para acceder de manera directa al botón Inicio y otro para desplegar el menú emergente.

MOUSE
El nombre proviene de "Mouse", ya que la forma se asocia a la de un ratón. Es un dispositivo apuntador que integra en su interior una serie de rodillos que son movidos mecánicamente por una esfera y/ó un LED emisor de luz que genera pulsos eléctricos, que se envían de manera inalámbrica ó por medio de un cable hacia la computadora; esta a su vez los interpreta como posiciones en la pantalla por medio del puntero (flecha que se mueve en la pantalla al mover el ratón).
Son 3 tipos, en las ligas se muestran en orden de aparición en el mercado de manera que el primero es el más antiguo el último el mas reciente:
Mouse Mecánico:

Tiene una bola de plástico, de varias capas, en su parte inferior para mover dos ruedas que generan pulsos en respuesta al movimiento de este sobre la superficie.

Una variante es el modelo de Honeywell, utiliza dos ruedas inclinadas 90 grados entre ellas en vez de una bola en la parte inferior de mouse de cable y sensor óptico La circuitería interna cuenta los pulsos generados por las rueda y envía la información a la computadora, que mediante software procesa e interpreta.

Mouse Óptico: Es una variante que carece de la bola de goma, que evitando el frecuente problema de la acumulación de suciedad en el eje de transmisión, y por sus características ópticas es menos propenso a sufrir un inconvenientes de este tipo.
Es considerado uno de los más modernos y prácticos actualmente.
Puede ofrecer un límite de 800 DPI (dpi, acrónimo del inglés: Dots per inch, literalmente: puntos por pulgada), como cantidad de puntos distintos que puede reconocer en 2,54 centímetros (una pulgada), a menor cifra peor actuará el sensor de movimientos.

Su funcionamiento se basa en un sensor óptico que fotografía la superficie sobre la que se encuentra, detectando las variaciones entre sucesivas fotografías, se determina si el mouse ha cambiado su posición.
En superficie pulida el mouse óptico causa movimiento nervioso sobre la pantalla.
Este problema puede ser solucionado con el uso de un mouse pad o en el caso una pasta de cuaderno o cualquier superficie que mejore la trasmisión de los sensores del mouse.
Mouse Láser: Este tipo es más sensible, haciéndolo aconsejable especialmente para los diseñadores gráficos y los fanáticos de videojuegos, por su excelente rendimiento.
Usa también la superficie donde se apoya, como los mouse pad, pero el haz de luz de tecnología óptica se sustituye por un láser (invisible al ojo humano) de 2000 ppp lo que se traduce en un aumento significativo de la precisión y sensibilidad.
Mouse Trackball :Un modelo trackball de Logitech El concepto de trackball es una idea novedosa que parte del hecho: se debe de mover el puntero, no el dispositivo, por lo que se adapta para presentar una bola, de tal forma cuando se coloque la mano encima se pueda mover mediante el dedo pulgar, sin necesidad de desplazar nada más ni toda la mano como antes.
De esta manera se reduce el esfuerzo y la necesidad de espacio, además de evitarse un posible dolor de antebrazo por el movimiento de éste. Algunas personas sin embargo, no les terminan de resultar realmente cómodo. Este tipo ha sido muy útil en por ejemplo la informatización de la navegación marítima.
Mouse touch: también conocido como Magic Mouse está diseñado con una carcasa superior de una pieza. Su superficie es lisa es decir sin botón, ya que gracias al área multi-touch, todo el ratón hace de botón y lo puedan usar tanto los diestros como los zurdos.
ESCANER
Un escáner de computadora (escáner proviene del idioma inglés scanner) es un periférico que se utiliza para convertir, mediante el uso de la luz, imágenes impresas o documentos a formato digital.
Los escáneres pueden tener accesorios como un alimentador de hojas automático o un adaptador para diapositivas y transparencias.
Al obtenerse una imagen digital se puede corregir defectos, recortar un área específica de la imagen o también digitalizar texto mediante técnicas de OCR. Estas funciones las puede llevar a cabo el mismo dispositivo o aplicaciones especiales. Hoy en día es común incluir en el mismo aparato la impresora y el escáner. Son las llamadas impresoras multifunción con sus respectivas ventajas y desventajas que no se mencionarán aquí

A los datos que obtienen los escáneres (normalmente imágenes RGB) se les aplica cierto algoritmo y se envían a la computadora mediante una interfaz de entrada/salida (normalmente SCSI, USB o LPT en máquinas anteriores al estándar USB). La profundidad del color depende de las características del vector de escaneado (la primera de las características básicas que definen la calidad del escáner) que lo normal es que sea de al menos 24 bits. Con 48 bits se obtiene una mejor calidad o profundidad del color.

Otro de los parámetros más relevantes de la calidad de un escáner es la resolución, medida en píxeles por pulgada (ppp). Los fabricantes de escáneres en vez de referirse a la resolución óptica real del escáner, prefieren hacer referencia a la resolución interpolada, que es mucho mayor gracias a la interpolación software.

Por hacer una comparación entre tipos de escáns más caros llegaban hasta los 5400 ppp. Un escáner de tambor tenía una resolución de 8000 a 14000 ppp.

El tercer parámetro más importante para dotar de calidad a un escáner es el rango de densidad. Si el escáner tiene un alto rango de densidad, significa que es capaz de reproducir sombras y brillos con una sola pasada.son dispositivos encargados de suscribir de lo cotidiano al computador

MICROFONO
El micrófono es un transductor electroacústico. Su función es la de traducir las vibraciones debidas a la presión acústica ejercida sobre su cápsula por las ondas sonoras en energía eléctrica, lo que permite por ejemplo grabar sonidos de cualquier lugar o elemento
El siguiente paso importante en el diseño del transmisor se debió a Henry Hunnings de Inglaterra. Él utilizó los gránulos del choque entre el diafragma y una placa metálica trasera. Este diseño originado en 1878, fue patentado en 1879. Este transmisor era muy eficiente y podía llevar más actual que sus competidores. Su desventaja era que tenía una tendencia a embalar y a perder su sensibilidad.
El advenimiento de la grabación eléctrica y de la radio del disco que difundían en los años 1920 tempranos estimuló el desarrollo de los micrófonos de carbón de una calidad mejor. El año 1920 llevó en la era comercial de la difusión. Algunos de los aficionados y de los cantantes bien informados comenzaron a jugar expedientes y a usar los micrófonos con sus programas. La estación de radio temprana utilizó el teléfono del candlestick para un micrófono.

El elemento típico del transmisor en este tiempo era no eléctrico occidental 323. Al principio él fue utilizado como hablando en él pues uno utilizaría un teléfono. El paso siguiente era proveer de los actores un micrófono que permitiría que estuvieran parados y que se realizaran. Para este uso el constructor tomó el transmisor del teléfono del candlestick, substituyó la boquilla corta por el megáfono y resbaló esta combinación dentro de una manga alineada fieltro de la baquelita cerca de ocho pulgadas de largo y puso pernos de argolla pequeños en cada extremo para suspenderlo de arriba.
El primer micrófono, que hizo para la industria de la película era el PB17. Era a sand blasted el cilindro de aluminio, 17 pulgadas de largo y el fondo del The de 6 pulgadas de diámetro fue redondeado con un yugo para llevar a cabo el elemento de la cinta, que tenía una pantalla perforada protectora. La estructura magnética utilizó un electroimán que requería seis voltios en un amperio.
En años recientes, algunos de los acercamientos más radicales al diseño del modelo del micrófono han incluido la detección del movimiento, en respuesta a variaciones de presión sana, de partículas cargadas, a un sistema análogo al altavoz iónico. Las interfaces ópticas en miniatura y los dispositivos relacionados desarrollados para las industrias de las telecomunicaciones, tales como diodos miniatura del láser, divisores de viga polarizantes y fotodiodos, ahora están ayudando en la construcción de los micrófonos ópticos de la alta calidad.
PANTALLA TOUCH
Una pantalla táctil es una pantalla que mediante un toque directo sobre su superficie permite la entrada de datos y órdenes al dispositivo. A su vez, actúa como periférico de salida, mostrando los resultados introducidos previamente. Este contacto también se puede realizar con lápiz u otras herramientas similares. Actualmente hay pantallas táctiles que pueden instalarse sobre una pantalla normal. Así pues, la pantalla táctil puede actuar como periférico de entrada y periférico de salida de datos, así como emulador de datos interinos erróneos al no tocarse efectivamente
Las pantallas tactiles se han ido haciendo populares desde la invención de la interfaz electrónica táctil en 1971 por el Dr. Samuel C. Hurst. Han llegado a ser comunes en TPVs, en cajeros automáticos y en PDAs donde se suele emplear un estilete para manipular la interfaz gráfica de usuario y para introducir datos. La popularidad de los teléfonos inteligentes, PDAs, de las vídeo consolas portátiles o de los navegadores de automóviles está generando la demanda y la aceptación de las pantallas táctiles.
La interacción efectuada por tal objeto permitió que en 1993 se integraran al mercado varios productos interactivos para niños tales como los libros gráficos de la Matel.
El HP-150 fue, en 1983, uno de los primeros ordenadores comerciales del mundo que disponía de pantalla táctil. En realidad no tenía una pantalla táctil en el sentido propiamente dicho, sino una pantalla de tubo Sony de 9 pulgadas rodeada de transmisores y receptores infrarrojos que detectaban la posición de cualquier objeto no-transparente sobre la pantalla.
Las pantallas táctiles de última generación consisten en un cristal transparente donde se sitúa una lámina que permite al usuario interactuar directamente sobre esta superficie, utilizando un proyector para lanzar la imagen sobre la pantalla de cristal. Se sale de lo que hasta hoy día se entendía por pantalla táctil que era básicamente un monitor táctil.
Las pantallas táctiles son populares en la industria pesada y en otras situaciones, tales como exposiciones de museos donde los teclados y los ratones no permiten una interacción satisfactoria, intuitiva, rápida, o exacta del usuario con el contenido de la exposición.
LAPIZ OPTICO
El lápiz óptico es una pluma ordinaria que se utiliza sobre la pantalla de un ordenador o en otras superficies para leer éstas o servir de dispositivo apuntador y que habitualmente sustituye al mouse o con menor éxito, a la tableta digitalizadora. Está conectado a un cable eléctrico y requiere de un software especial para su funcionamiento. Haciendo que el lápiz toque el monitor el usuario puede elegir los comandos de los programas (el equivalente a un clic del mouse), bien presionando un botón en un lado del lápiz óptico o presionando éste contra la superficie de la pantalla.
El lápiz contiene sensores luminosos y envía una señal a la computadora cada vez que registra una luz, por ejemplo al tocar la pantalla cuando los píxeles no negros que se encuentran bajo la punta del lápiz son refrescados por el haz de electrones de la pantalla. La pantalla de la computadora no se ilumina en su totalidad al mismo tiempo, sino que el haz de electrones que ilumina los píxeles los recorre línea por línea, todas en un espacio de 1/50 de segundo. Detectando el momento en que el haz de electrones pasa bajo la punta del lápiz óptico, el ordenador puede determinar la posición del lápiz en la pantalla.
El lápiz óptico no requiere una pantalla ni un recubrimiento especiales como puede ser el caso de una pantalla táctil, pero tiene la desventaja de que sostener el lápiz contra la pantalla durante periodos largos de tiempo llega a cansar al usuario.