RGB: Percepción de Color y Procesamiento de color, en equipos electrónicos y en tecnología digital... y algo más.

"...El Conocimiento no se da, se lo recibe. Cada cual sabrá si está capacitado o no para recibirlo. En estos tiempos se ha iniciado la apertura de los arcanos del saber, todos, de una u otra forma pueden acceder a Enseñanzas consideradas ocultas hasta hace pocos años atrás." 

Dr. Iván Seperiza Pasquali

Reflexionando sobre la necesidad de seguir profundizando sobre el conocimiento de la imagen, el sonido y el color, para mejorar los procesos de postproducción, siempre pienso que hace falta que los interesados comiencen a utilizar las herramientas de información de nuestra época para fines profesionales. Si los usuarios de internet superan la fase de uso de este para diversión y entretenimiento (A partir de la antigua teoría de medios de comunicación de masas), y acceden a la información (nuevas teorías de pensamiento), podrán entender de que va el mundo del tratamiento de imágenes. 

Vale decir que , un editor que no investiga la "fisiología de la imagen y el sonido" y la tecnología que opera para su procesamiento, no es más que un operador, una prótesis que sirve a los fines de otro para comunicar. 

Un ser humano es más que una pieza de una máquina.  

Comparto lista de referencias ubicadas en un medio tan popular como wikipedia, o en un blog, o en foros. No son referencias colegiadas, pero son útiles para comenzar a comprender la imagen y el color y su procesamiento en video y cine. Estas referencias solo sirven para investigar más y encontrar mejores fuentes. Ojalá las compartan. 

A).- El ser humano y la percepción y sensación de color

Los ojos humanos tienen dos tipos de células sensibles a la luz o fotorreceptores: los bastones y los conos. Estos últimos son los encargados de aportar la información de color.
Para saber cómo es percibido un color, hay que tener en cuenta que existen tres tipos de conos con respuestas frecuenciales diferentes, y que tienen máxima sensibilidad a los colores que forman la terna RGB. Aunque los conos, que reciben información del verde y el rojo, tienen una curva de sensibilidad similar, la respuesta al color azul es una veinteava (1/20) parte de la respuesta a los otros dos colores. Este hecho lo aprovechan algunos sistemas de codificación de imagen y vídeo, como el JPEG o el MPEG, "perdiendo" de manera consciente más información de la componente azul, ya que el ser humano no percibe esta pérdida.
La sensación de color se puede definir como la respuesta de cada una de las curvas de sensibilidad al espectro radiado por el objeto observado. De esta manera, obtenemos tres respuestas diferentes, una por cada color.
El hecho de que la sensación de color se obtenga de este modo, hace que dos objetos observados, radiando unespectro diferente, puedan producir la misma sensación. Y en esta limitación de la visión humana se basa el modelo de síntesis del color, mediante el cual podemos obtener a partir de estímulos visuales estudiados y con una mezcla de los tres colores primarios, el color de un objeto con un espectro determinado.

B).- Modelo de color RGB

RGB es un modelo de color basado en la síntesis aditiva, con el que es posible representar un color mediante la mezcla por adición de los tres colores de luz primarios. El modelo de color RGB no define por sí mismo lo que significa exactamente rojo, verde o azul, por lo que los mismos valores RGB pueden mostrar colores notablemente diferentes en diferentes dispositivos que usen este modelo de color. Aunque utilicen un mismo modelo de color, sus espacios de color pueden variar considerablemente.
Para entender el pipeline general del color en postproducción, primero se estudia el tratamiento de la señal RGB (perspectiva histórica, pues, antes que las computadoras se inventó los mecanismos de captura, transmisión y reproducción de la imagen:

C).- Tratamiento de la señal de vídeo RGB

RGB es el tratamiento de la señal de vídeo que trata por separado las señales de los tres colores rojo, verde y azul. Al usarlo independientemente, proporciona mayor calidad y reproducción más fiel del color.

Visión general[editar]

El modelo de color llamado RGB es el que se utiliza en todos los sistemas que forman imágenes a través de rayos luminosos, ya sea emitiéndolos o recibiéndolos.
El modelo RGB está formado por los tres componentes de colores primarios aditivos y como mínimo un componente de sincronismo. Los componentes de color son las señales rojo, verde y azul; siendo transmitidos cada uno independiente y aislado del resto.
De esta forma no hay pérdidas en el tratamiento de la imagen puesto que los colores primarios siguen existiendo como tal en su transmisión. Por el contrario, mediante este sistema hay mucha información redundante, con el consiguiente aumento del ancho de banda necesario respecto a otros métodos de transmisión. Por ejemplo, cada color lleva el valor de brillo de toda la imagen, de forma que esta información está por triplicado.

Emisores RGB[editar]

Unos sistemas (los que emiten rayos luminosos) forman las imágenes bien a través de tubos de rayos catódicos (TV, monitores, proyectores de vídeo, etc.), a través de LED (diodos luminosos) o sistemas de Plasma (TV, monitores, etc.).

Señal de luminancia[editar]

La sensación de luminosidad viene dada por el brillo de un objeto y por su opacidad, pudiendo producir dos objetos con tonalidades y prismas diferentes la misma sensación lumínica. La señal de luminancia es la cuantificación de esa sensación de brillo. Para mantener la compatibilidad entre las imágenes en blanco y negro y las imágenes en color, los sistemas de televisión actuales (PALNTSCSECAM) transmiten tres informaciones: la luminancia y dos señales diferencia de color.
De esta manera, los antiguos modelos en blanco y negro pueden obviar la información relativa al color, y reproducir solamente la luminancia, es decir, el brillo de cada píxel aplicado a una imagen en escala de grises. Y las televisiones en color obtienen la información de las tres componentes RGB a partir de una matriz que relaciona cada componente con una de las señales diferencia de color.
Para cada uno de los sistemas de televisión se transmiten de diferente manera, motivo por el cual podemos tener problemas al reproducir una señal NTSC en un sistema de reproducción PAL.

Señal de sincronismo[editar]

La señal de sincronismo es necesaria para poder marcar la pauta de guiado de la muestra de colores en pantalla, tanto en el sentido horizontal (el avance de la línea de imagen), como en sentido vertical (el salto a una nueva línea de imagen).
El sincronismo puede transmitirse principalmente de tres formas:
  • Sincronismos separados (RGBHV): Mediante este método existe una señal para el sincronismo horizontal HSync y otra señal para el sincronismo vertical VSync, ambas independientes entre sí y entre las señales de colores, teniendo en total 5 señales en la transmisión.
  • Sincronismo compuesto (RGBS): Mediante este método existe una señal con toda la información del sincronismo horizontal y vertical, independiente entre las señales de colores, teniendo en total 4 señales en la transmisión.
  • Sincronismo en verde (RGsB o SoG -Sync on Green-): Mediante este método existe una señal con toda la información del sincronismo horizontal y vertical multiplexada junto con la señal de color verde, teniendo en total 3 señales en la transmisión.
Nótese que este modelo existe solamente en pantallas y combinaciones de luz. No se aplica a los pigmentos (pintura), a los que corresponde el modo sustractivo de luz.1

Receptores RGB[editar]

Los sistemas que reciben y capturan luz (capturan las imágenes) son las cámaras digitales de fotografía y vídeo, los escáneres, etc. Gracias al establehjgjyityicimiento de este modelo de color, ha sido posible la creación de todos estos sistemas de emisión y recepción de imágenes. Sin embargo, algunos valores (intensidad de brillo) no pueden ser obtenidos por este método.

C).- tratamiento de color cuando el pipeline involucra el universo de la computación:



Profundidad de Color:


"La profundidad de color o bits por pixel (bpp) es un concepto de la computación gráfica que se refiere a la cantidad de bits de información necesarios para representar el color de un píxel en una imagen digital o en un framebuffer. Debido a la naturaleza delsistema binario de numeración, una profundidad de bits de n implica que cada píxel de la imagen puede tener 2n posibles valores y por lo tanto, representar 2n colores distintos.

Debido a la aceptación prácticamente universal de los octetos de 8 bits como unidades básicas de información en los dispositivos de almacenamiento, los valores de profundidad de color suelen ser divisores o múltiplos de 8, a saber 1, 2, 4, 8, 16, 24 y 32, con la excepción de la profundidad de color de 10 o 15, usada por ciertos dispositivos gráficos."

Color indexado


Para las profundidades de color inferiores o iguales a 8, los valores de los píxeles hacen referencia a tonos RGB indexados en una tabla, llamada habitualmente caja creadora de colorización o paleta. Los tonos en dicha tabla pueden ser definidos por convención o bien ser configurables, en función de la aplicación que la defina. A continuación se mencionarán algunas profundidades de color en la gama baja, así como la cantidad de tonos que pueden representar en cada pixel y el nombre que se le otorga a las imágenes o framebuffers que los soportan.
  • bit por píxel21 = 2 colores, también llamado monocromo.
  • bits por píxel22 = 4 colores, o CGA.
  • bits por píxel24 = 16 colores, la cual es la mínima profundidad aceptada por el estándar EGA.
  • bits por píxel28 = 256 colores, también llamado VGA.
  • 10 bits por pixel210 = 1024 colores, usado en UHDTV.
Los archivos de extensión .gif utilizan la paleta de color indexado, mientras que en una toma de fotografía digital el color es de 24 bit u 8 bit por canal de color RGBColor directo[editar]
Cuando los valores de la profundidad de colores aumentan, se torna impráctico mantener una tabla o mapa de colores debido a la progresión exponencial de la cantidad de valores que el pixel puede tomar. En esos casos se prefiere codificar dentro de cada pixel los tres valores de intensidad luminosa que definen un color cualquiera en el modelo de color RGB.

Color de alta resolución o HiColor[editar]

Los valores de profundidad de color de 15 y 16 bits son llamados habitualmente color de alta resolución o HiColor.
  • En la profundidad de 15 bpp se utilizan 5 bits para codificar la intensidad del rojo, 5 para el verde y los otros 5 para el azul. Con una profundidad de 15 bpp es posible representar 32 \times 32 \times 32 = 32768 colores en cada pixel.
  • En la profundidad de 16 bpp se utilizan 5 bits para codificar la intensidad del rojo, 6 para el verde y los otros 5 para el azul. La razón de esto es que experimentalmente se sabe que el ojo humano es más sensible al color verde, y que puede discriminar más tonos que varía ligeramente en la intensidad verde. Con la profundidad de 16 bpp es posible representar  32 \times 64 \times 32 = 65536 colores en cada pixel. El tamaño de la imagen dependerá de la profundidad de bit.

Color real o True Color[editar]

Para la profundidad de color de 24 bits por pixel, se habla de color verdadero debido a que la policromía se acerca a lo que el ojo humano puede encontrar en el mundo real, y a que dicho ojo humano se torna incapaz de diferenciar entre un tono y otro, si la diferencia se mantiene en un cierto rango mínimo. En la profundidad de color de 24 bits por pixel, se dedica un octeto entero a representar la intensidad luminosa de cada uno de los tres tonos primarios de rojo, verde y azul, lo cual permite que cada pixel pueda tomar 224 = 256x256x256 = 16.777.216 colores distintos.
Cuando se utilizan 32 bits para representar un color se agrega al esquema de 256 valores para cada tono primario un cuarto canal denominado alfa que representa la transparencia. Este valor se utiliza cuando se deben superponer dos imágenes.
Edwin Catmull propuso una serie de operadores para la mezcla (también llamado blend) de imágenes. Debido a que Catmull estaba desarrollando el sistema de animación de Pixar necesitaba automatizar la composición de imágenes. Juntamente con Marc Levoy (Levoy los desarrolló por su cuenta en los estudios Hanna Barbera) sentaron las bases del álgebra de colores. El operador más común es el OVER, que presentamos a continuación:
Dados los colores A [r1, g1, b1, a1] y B [r2, g2, b2, a2], el resultado de mezclar: A sobre B es:
A OVER B = [ r1 * a1 + r2(1 - a1), g1 * a1 + g2(1 - a1), b1 * a1 + b2(1 - a1) ]
Notemos que el orden es importante: A over B es diferente que B over A. Esta es la razón por la cual la transparencia se debe aplicar en orden. Por ejemplo si tenemos tres imágenes A, B y C, donde C es el fondo y A es la imagen al frente, el orden es el siguiente: Imagen Final = A over ( B over C ) Existen otros operadores importantes como el OUT, ADD, SUB y otras formulaciones de OVER más complejas.


true color. 32 bit

"...Los gráficos truecolor, de color verdadero o de millones de colores utilizan un método de almacenamiento de la información de la imagen en la memoria de unordenador donde cada píxel está representado por 3 o más bytes. Los bits están divididos en valores para el componente rojo, el verde y el azul (RGB, del inglésred, green, blue) del color final""

Bit 23 22 21 20 19 18 17 16 15 14 13 12 11 10 09 08 07 06 05 04 03 02 01 00
Dato R R R R R R R R G G G G G G G G B B B B B B B B


tru color chart html (en adjunto)


Cada uno de las componentes RGB disponen de 8 bits asociados, dando 28 o 256 valores de cada color. Esto permite 16.777.216 (16.7 millones) posibles colores para cada píxel. La razón de que se denomine truecolor o color verdadero es debido a que es aproximadamente el número de colores que el ojo humano puede detectar.

Las imágenes de color verdadero son algunas veces representadas por valores de 32 bits por pixel. Los 8 bits extra normalmente no afectan a la precisión del color, pero permiten incorporar un canal alfa que representa la transparencia de cada pixel. Como en los últimos años la potencia de la CPU y de las tarjetas gráficas ha aumentado, la versión de 32 bits ha llegado a ser muy popular en los ordenadores domésticos que permite mostrar efectos tales como ventanas traslucidas, sombreados, etc. En muchas ocasiones los ordenadores están preparados para trabajar más rápido en 32 bits incluso que sólo en 24, por lo que si no son necesarios los 8 bits del canal alfa, simplemente son ignorados.

Codificación hexadecimal del color[editar]

Colores de la CIE.
La codificación dodecadecimal del color permite expresar fácilmente un color concreto de la escala RGB, utilizando la notación hexadecimal, como en el lenguaje HTML y en JavaScript. Este sistema utiliza la combinación de tres códigos de dos dígitos para expresar las diferentes intensidades de los colores primarios RGB .
El blanco y el negro
Negro#000000Los tres canales están al mínimo 00, 00 y 00
Blanco#FFFFFFLos tres canales están al máximo FF, FF y FF
En el sistema de numeración hexadecimal, además de los números del 0 al 9 se utilizan seis letras con un valor numérico equivalente; a=10, b=11, c=12, d=13, e=14 y f=15. La correspondencia entre la numeración hexadecimal y la decimal u ordinaria viene dada por la siguiente fórmula:
decimal = primera cifra hexadecimal * 16 + segunda cifra hexadecimal
La intensidad máxima es ff, que se corresponde con (15*16)+15= 255 en decimal, y la nula es 00, también 0 en decimal. De esta manera, cualquier color queda definido por tres pares de dígitos.
Los tres colores básicos
Rojo#ff0000El canal de rojo está al máximo y los otros dos al mínimo
Verde#00ff00El canal del verde está al máximo y los otros dos al mínimo
Azul#0000ffEl canal del azul está al máximo y los otros dos al mínimo
Las combinaciones básicas
Amarillo#ffff00Los canales rojo y verde están al máximo
Cian#00ffffLos canales azul y verde están al máximo
Magenta#ff00ffLos canales rojo y azul están al máximo
Gris claro#D0D0D0Los tres canales tienen la misma intensidad
Gris oscuro#5e5e5eLos tres canales tienen la misma intensidad
A partir de aquí se puede hacer cualquier combinación de los tres colores.
Colores definidos por la especificación HTML 4.01
ColorHexadecimalColorHexadecimalColorHexadecimalColorHexadecimal
cyan#00ffffblack#000000blue#0000fffucsia#ff00ff
gray#808080green#008000lime#00ff00maroon#800000
navy#000080olive#808000purple#800080red#ff0000
silver#c0c0c0teal#008080white#ffffffyellow#ffff00

Los colores más saturados y los más luminosos[editar]

esquema CIE.
Supongamos tres fuentes luminosas, r, g y b, de las características indicadas en el gráfico adjunto:
Cualquier color que se pueda obtener a partir de esos tres colores primarios tendrá la forma:
(ir, ig, ib)
donde ir, ig y ib son los coeficientes de las intensidades correspondientes a cada color primario.
Si situamos los colores obtenidos en el gráfico, tenemos que:
  • Si dos de los coeficientes son nulos, el color se sitúa en el vértice correspondiente al color de coeficiente no nulo.
  • Si un coeficiente es nulo, el color se sitúa en uno de los lados del triángulo: el conjunto de todos ellos son los colores más saturados.
  • Si ninguno de los coeficientes es nulo, el color se sitúa en un punto del interior; cuanto más parecidos sean los tres coeficientes, más cerca estará del blanco (en el centro).
Al representar combinaciones de tres valores independientes en un diagrama que sólo tiene dos, resulta que a cada punto del diagrama le corresponde toda una familia de colores. Por ejemplo, los siguientes colores tienen la misma proporción de rojo, verde y azul, y por tanto les corresponde el mismo punto del gráfico. Sólo se diferencian en la intensidad.
Variación de las intensidades
100, 50, 0#643200Marrón oscuro
200, 100, 0#c86400Marrón claro
150, 75, 0#964b00Marrón
Si las intensidades ir, ig y ib tienen un límite superior (255), la condición necesaria y suficiente para que un color sea el más intenso de la familia (es decir, de los representados por el mismo punto) es que al menos uno de sus coeficientes sea 255.
Los colores que presentan la máxima saturación y la máxima luminosidad a la vez, son los que reúnen dos requisitos: al menos uno de los coeficientes es 255 y al menos uno de los coeficientes es 0. De esto se deduce que los colores más saturados y más luminosos siguen la siguiente secuencia:
amarillo
(255,255,0)
verde
(0,255,0)
cian
(0,255,255)
rojo
(255,0,0)
RGBR.pngazul
(0,0,255)

rojo
(255,0,0)
magenta
(255,0,255)

YPbPr

YPbPr (también denominado "Y/Pb/Pr", "YPrPb", "PrPbY", "B-Y R-Y Y", "PbPrY" o Vídeo por componentes) es el acrónimo que designa las componentes del espacio de color RGB utilizadas en el tratamiento de la señal de vídeo; en particular, referidas a los cables componentes de vídeo. YPbPr es la versión deseñal analógica del espacio de color YCbCr; ambas son numéricamente equivalentes, pero mientras que YPbPr se utiliza en electrónica analógica,YCbCr está pensada para vídeo digital.
Otros espacios de color:

YCbCr

Y'CBCR no es un espacio de color absoluto, sino una forma de codificarinformación RGB. El color que se muestra depende de la combinación de colores primario RGB usados para mostrar la señal. Por lo tanto, un valor expresado como Y'CBCR es predecible solo si se usa la cromaticidad de los colores del estándar RGB.

Espacio de color sRGB

Modelo de color CMYK

Modelo de color HSL

Modelo de color HSV

Modelo de color RYB









D).- ¿Por qué el video no puede ser procesado como lo capturamos con las cámaras?

Luego, tenemos la realidad: Los equipos de procesamiento de información (Computadores) van anazando constantemente, pero, todavía no tienen la capacidad para procesar la información  de imágenes según los avances de los diseñadores de tecnología.  Por un lado, la tecnología avanza violentamernte como por ejemplo la "Ultra - Alta - Definición", 4K UHD (2160p) y 8K (4320p):
"...8 minutos de vídeo UHDV sin comprimir ocupan alrededor de 3,5 terabytes, y un solo minuto alrededor de 194gigabytes (siendo así aproximadamente 25 terabytes de almacenamiento para 2 horas). Si el vídeo de HDTV (1920×1080p60) tiene una tasa de bits de 60 Mbps usando la compresión MPEG-2, entonces un vídeo que es 4 veces la cantidad de píxeles, a lo alto y a lo ancho, requerirá una tasa 16 veces superior a esa cantidad, lo que llevaría a 100Gb para 18 minutos de UHDV o 6 Gb por minuto.

Si se implementaran los códecs H.264 (MPEG-4 AVC) o VC-1 se llegaría a usar solamente la mitad de la tasa de bits de MPEG-2, lo que se traduce en 50 Gb por cada 18 minutos de UHDV, o 3 Gb por minuto."
Y por otro lado, el avance de computadores y equipos ue permitan producir estos contenidos que puedan ser transmitidos en estos receptores UHDTV, por ejemplo.
RED Cámeras se jacta de que graba video en UHDTV (" su resolución máxima es de 2540p (un poco más que el estándar Digital Cinema 4k de 4096×2160"), Imagines que debería tener una mac para procesar las imágenes de la RED. No tenemos esos equipos y muchos no lo tienen tampoco. Por ello, entre otras cosas, se crean sistemas, software, hardware y procesos para comprimir la imagen (Su información, su inforkmación de color). Mucha gente piensa erróneamente que "Comprimir" es reducir tamaño, estos es un atavismo, que muy porbablemente venga del proceso de digitalización o del uso de editores de imágenes (Como Photoshop), en los que, al disminuir la cantidad de información de imagen, esta se hacía más pequeña. En el Photoshop esto ocurre si no se desencadena la relación entre tamaño y cantidad de información al modificar el tamaño de la imagen.
más información en este artículo:

Definición, tamaño de imagen, DPI y PPI


http://www.fmedda.com/es/article/dpi_ppiResolución y tamaño de imagen
Los concepto de Resolución y Tamaño de imagen a menudo provocan confusión y malos entendidos, porque en la práctica suelen ser ambiguas. Hay que distinguir:
  • 1) Archivo gráfico en la computadora (por ejemplo, de una cámara digital)
  • 2) Copia impresa (por ejemplo, un poster)

     

1) Archivo gráfico de computadora
 

Tamaño de imagen

El tamaño de la imagen esta dada en pixeles. Este tamaño da las dimensiones de la imagen (ancho x alto) de una foto de cámara digital, por ejemplo, 4608x3072px. El ancho comunmente es el primero en aparecer.
Una imagen de cámara digital nunca tendrá DPI, cm o pulgadas como unidad de medida, Solamente tendrá Pixeles.

Resolución

La resolución es el producto del ancho y alto de una imagen digital dada en pixeles. Una iamgen con el tamaño 4608x3072px tendrá una resolución de 14155776 Pixeles, que nos daría alrededor de 14,2 MegaPixeles. Los fabricantes de cámaras digitales gustan de clasificar sus productos usando MegaPixeles.

2) Copia impresa
 

Tamaño de imagen

El tamaño de imagen de una impresión, por ejemplo un Poster o Foto impresa, se da comunmente en centímetros o pulgadas (Inglaterra, Estados Unidos de America). Esto se refiere al tamaño del papel o lienzo. El tamaño de una foto impresa puede ser por ejemplo 10x15cm, o bien de un Poster 90x60cm.

Resolución

La resolución de una imagen impresa se dará en DPI (Puntos Por Pulgada - PPP) o bien PPI (Pixeles Por Pulgada - PPP). Esto significa que una impresora puede imprimir una cierta cantidad de puntos en una pulgada (=2,54cm). Cuanto más alto el valor, más fina será la impresión. Una resolución decente sería 300dpi (ppp), que reúne la mayoría de los requisitos de impresión.

 

DPI / PPI

  • DPI significa Puntos Por Pulgada e indica el numero de puntos impresos (dots) por cada pulgada
  • PPI signifoca Pixeles Por Pulgada e indica el número de pixeles por cada pulgada
DPI y PPI son básicamente lo mismo, excepto que PPI es la designación más correcta. DPI se aplica para algunos tipos de impresoras y métodos de impresión.
Durante el desarrollo de la foto, la designación de DPI/PPI por si sola no tiene sentido. Este valor debe administrarse siempre con el tamaño de la imagen deseada en centimetros/pulgadas. El tamaño mínimo en pixeles de la imagen digital se puede calcular a partir de estos dos valores.
Ejemplo: Un Poster de tamaño 90x60cm debe imprimirse con un mínimo de 150 PPI.
De esta descripción, se puede calcular que el tamaño de la fotografía digital debe añadirse por lo menos hasta 5315x3543 Pixeles (~18,8 MegaPixeles):
Ancho:
Alto:


La realidad del formato de una imagen , es que, independienteme de su tamaño digital (expresado en valores X,Y, formados por la cantidad de pixeles que este archivo presenta de ancho y de alto), la imagen puede tener más o menos información de color. un archivo sin compresión pretende ser fiel al archivo generado por el dispositivo que captura la imagen. en el caso de las cámaras digitales de video, por ejemplo. independientemente de la cantidad de información de color que los sensores de la cámara puedan capturar (CMOS en Cine Digital, CDD y COMS en video de alta definición, Digit en CANONDSLR), los procesadores de las cámarás más pequennas no tienen la capacidad instalada para escribir asrchivos con toda la información capturada por la cámara. he aquí la primera compresión de imagen (h.264, Mpeg2, Mpeg4)






Para más información de sensores de cámaras REFLEX:


las cámaras de cine digital ofrecen sensores de gran capacidad de captura (2k, 4K)

Formato de video digital UHDTV (Que ya mencionamos):


1080p:


Compresión de vídeo





La compresión de vídeo se refiere a la reducción del número de datos usado para representar imágenes de vídeo digital, es una combinación de la compresión espacial de imágenes y compensación de movimiento temporal. La compresión de vídeo es un ejemplo claro del concepto de códificación de fuentes en la teoría de la información. Este artículo mostrará sus aplicaciones: un vídeo comprimido puede reducir efectivamente el ancho de banda requerido para transmitir un vídeo a través de emisión terrestre, a través de cables de TV o de servicios vía satélite.



teoría de la compresión de video: 
Un vídeo es básicamente un arreglo tridimensional de pixeles de color. Dos dimensiones direcciones (horizontal y vertical) espaciales de las imágenes en movimiento, y una dimensión representa el tiempo de dominio. Una capa de datos es donde se asignan todos los pixeles que corresponden en un sólo momento en el tiempo. Básicamente, una capa es lo mismo que una imagen estática.

Calidad de vídeo[editar]

La mayoría de las compresiones de vídeo son con pérdida, se realizan con la premisa de que muchos de los datos presentes antes de la compresión no son necesarios para percibir una buena calidad de vídeo. Por ejemplo, los DVDusan una codificación estándar llamada MPEG-2 que puede comprimir de 15 a 30 veces los datos de un vídeo, mientras sigue produciendo una calidad de imagen generalmente considerada de alta calidad para la definición estándar. La compresión de vídeo es una compensación entre el espacio de almacenamiento, la calidad del vídeo y el costo del hardware requerido para descomprimir el vídeo en un tiempo razonable. Sin embargo, si el vídeo es sobre-comprimido con pérdida, se pueden hacer visibles (y en ocasiones hasta distraer) las distorsiones de imagen.
La compresión de vídeo opera típicamente en grupos cuadriculados de píxeles vecinos, a veces llamados macro-bloques. Estos grupos o bloques de píxeles son comparados con el fotograma siguiente y el codec de compresión de vídeo envía solo las diferencias dentro de esos bloques. Esto funciona extremadamente bien si el video no tiene movimiento. Un fotograma de texto, por ejemplo, se puede repetir muy poco con los datos transmitidos.
El proveedor de programación tiene el control de la cantidad de compresión de vídeo aplicado a la programación del mismo antes de ser enviado a su sistema de distribución. DVD, discos Blu-ray y DVD HD tienen una compresión de video aplicada durante el proceso de masterización, aunque los discos Blu-ray y los DVD HD tienen suficiente capacidad de almacienamiento que la mayoría de compresión que se aplica en estos formatos es a la luz, a diferencia de la mayoría de videos streaming en internet, o tomados por un teléfono móvil. El Software que es usado para guardar video en los discos de almacenamiento o en varios formatos discos ópticos podría a veces tener una baja calidad de imagen. Los codificadores de video con alta tasa de bits o sin compresión existen para trabajos de post-producción, pero se crean archivos muy grandes y casi nunca son usados para la distribución en videos terminados. Una vez la pérdida en la compresión del video compromete la calidad de imagen, es imposible recuperar la imagen a su calidad original.
referencia:

Códec de vídeo

Un códec de video es un tipo de códec que permite comprimir y descomprimir video digital. Normalmente losalgoritmos de compresión empleados conllevan una pérdida de información.
El problema que se pretende acometer con los códec es que la información de video es bastante ingente en relación a lo que un ordenador normal es capaz de manejar. Es así como un par de segundos de video en una resolución apenas aceptable puede ocupar un lugar respetable en un medio de almacenamiento típico (disco duro, Cd, Dvd) y su manejo (copia, edición, visualización) puede llevar fácilmente a sobrepasar las posibilidades de dicho ordenador o llevarlo a su límite.
referencia Codecs de Video:

Códec de audio

Un códec de audio es un códec que incluye un conjunto de algoritmos que permiten codificar y decodificar los datos auditivos, lo cual significa reducir la cantidad de bits que ocupa el fichero de audio. Sirve para comprimir señales o ficheros de audio con un flujo de datos (stream) con el objetivo de que ocupan el menor espacio posible, consiguiendo una buena calidad final, y descomprimiendolos para reproducirlos o manipularlos en un formato más apropiado. Se implementa en software, hardware o una combinación de ambos.

Anexo. Corrección de color

Etalonaje digital

Digital Cinema Initiatives

Jesús Odremán

Montador - Post Productor - Realizador Audiovisual
Producciones El Perro Andaluz 2.0 C.A.

Comentarios

Entradas populares