Bloque 4. Captación de imágenes fotográficas y de vídeo

 

 

Contents

  1. 1 PRESTACIONES CARACTERÍSTICAS DE LAS CÁMARAS FOTOGRÁFICAS DIGITALES:
    1. 1.1 Formatos, tipos y tamaños de sensores.
    2. 1.2 Relaciones de aspecto.
    3. 1.3 Tipos de archivo y compresiones.
    4. 1.4 Velocidades de obturación y efectos sobre la imagen.
  2. 2 PRESTACIONES CARACTERÍSTICAS DE LOS OBJETIVOS FOTOGRÁFICOS:
    1. 2.1 Tipos de objetivo.
    2. 2.2 Distancias focales, ópticas fijas y objetivos zoom.
    3. 2.3 Focales, formatos, ángulos de cobertura.
    4. 2.4 Enfoque y profundidad de campo.
    5. 2.5 Diafragma y números F.
  3. 3 TOMA FOTOGRÁFICA:
    1. 3.1 Relaciones entre sensibilidad, iluminación, velocidades de obturación y diafragma.
    2. 3.2 Composición del encuadre.
    3. 3.3 Técnicas de toma instantánea.
    4. 3.4 Técnicas de retrato.
    5. 3.5 Técnicas de captación de objetos o personas en movimiento.
  4. 4 PRESTACIONES CARACTERÍSTICAS DE LAS VIDEOCÁMARAS:
    1. 4.1 Tipología de videocámaras y funcionalidades.
    2. 4.2 Formatos de vídeo, compresiones, códecs, tipos y tamaños de sensores.
    3. 4.3 Soportes de grabación.
    4. 4.4 Relaciones de aspecto 4:3 y 16:9; relación de aspecto del pixel.
    5. 4.5 Imágenes por segundo y exploración.
    6. 4.6 Canales y opciones de audio.
    7. 4.7 Objetivos integrados y ópticas intercambiables.
  5. 5 TOMA CON VIDEOCÁMARAS:
    1. 5.1 Encuadre y enfoque.
    2. 5.2 Movimientos de cámara.
    3. 5.3 Ajustes de luminancia y color.
    4. 5.4 Conexión de micrófonos y líneas.
    5. 5.5 Monitorizado y ajuste de niveles.
  6. 6 AJUSTE DE CONDICIONES LUMÍNICAS CON FLASHES FOTOGRÁFICOS E ILUMINACIÓN LIGERA:
    1. 6.1 Equipos de iluminación para fotografía y para vídeo.
    2. 6.2 Exposición.
    3. 6.3 Histogramas.
  7. 7 CAPTACIÓN DE PIEZAS AUDIOVISUALES:
    1. 7.1 Fragmentación y puesta en escena, organización del espacio de la toma.
    2. 7.2 Ordenación de secuencias y planos.
    3. 7.3 Identificación de imágenes y edición de etiquetas de metadatos.
    4. 7.4 Características técnicas de los sistemas de registro de vídeo digital.
    5. 7.5 Soportes de registro idóneos a diversas tecnologías de captación de imagen.


Criterio de evaluación:

Grabar piezas audiovisuales aplicando técnicas de captación de imágenes fotográficas y de vídeo, y reforzando su expresividad mediante los recursos y medios técnicos del lenguaje audiovisual.


 Estándares de aprendizaje evaluables:
1.1. Compara el proceso de captación de imágenes del ojo humano y de la percepción visual con la aplicación transferida a los sistemas de captación y reproducción visual. 1.2. Justifica el efecto de la iluminación de las secuencias a captar por los sistemas técnicos audiovisuales. 1.3. Construye la composición estética y narrativa de las imágenes fotográficas y de vídeo a capturar, necesarias para la elaboración de piezas o secuencias audiovisuales sencillas. 1.4. Dispone los flashes fotográficos o la «iluminación ligera» necesaria para adecuar las condiciones lumínicas de la escena a los dispositivos de captura fotográfica o de vídeo. 1.5. Registra con la cámara de vídeo y fotográfica las tomas, planos y secuencias introduciendo los ajustes necesarios de temperatura de color, exposición, resolución, sonido y los metadatos con la información necesaria para su identificación. 1.6. Elige las alternativas apropiadas de registro en cinta magnética, discos ópticos, tarjetas de memoria y discos duros que resulten idóneas para diversos tipos de filmación o grabación audiovisual.


PRESTACIONES CARACTERÍSTICAS DE LAS CÁMARAS FOTOGRÁFICAS DIGITALES:


Formatos, tipos y tamaños de sensores.

Empecemos por lo primero, ¿qué es un sensor? Pues ni más ni menos que lo que hace que en una cámara electrónica y especialmente en las digitales se "adquiera" la imagen que queremos captar.


Sacamos una foto con la cámara digital y la imagen que consiguen las lentes/objetivos se ha de transformar en datos (muestreo) mediante los fotodiodos con los que cuenta la parte electrónica. A esos datos del muestreo se les llama, como ya habréis supuesto, pixeles.


Los sensores actualmente suelen ser CCD o CMOS.


Bien, tras saber lo que es el sensor, veamos ahora sus formatos, sus tipos y sus tamaños. Como estamos con cámaras digitales, nos centraremos en los sensores de imagen y en sus ajustes. El objetivo puede tener un campo de visión, pero lo que se va a fotografiar depende únicamente de lo que el sensor pueda recoger, por lo que lo sobrante (muchas veces luz por los laterales de la lente) será obviado o eliminado.


El tamaño (que determina el tipo) es importante y va desde los 1/2.5" de las cámaras frontales del móvil a los 35mm del formato "full frame". Hay cosas mayores e intermedias, especialmente la pulgada (1") de las reflex. Cuanto mayor sea el tamaño, mayor será el tamaño del píxel que captemos y, por tanto, mayor la calidad de la foto.


Los formatos de los sensores digitales son el SLR (reflex de un sólo objetivo), el DSLR, el CCD 1/2" (compactas) y las "Bridge" (compactas avanzadas). Dependen del tamaño tal y como lo hemos visto antes y demuestran que sí se puede pasar del 1/1.7"


Relaciones de aspecto.

La fotografía que vamos a captar es un recuadro (un rectángulo) y hay una relación a la que debemos atender que es la que se produce entre el alto y el ancho de la imagen.


Un cuadrado sería 1:1, para que os hagáis a la idea. Para una imagen de 800px de alto tendríamos 800px de ancho. Empleemos vertical y horizontal para ser más exactos. En una proporción 3:2, si el vertical es 800px, su horizontal sería 1200px. La idea de usar proporciones se da por la necesidad de "recortar" o de ampliar una imagen. Es decir; de pasarla de una relación de aspecto a otra.


Las relaciones comúnmente empleadas son 3:2 (foto estándar), 4:3 (la estándar en compactas y smartphones) y 5:4 (para gran formato).


Si pasamos al modo panorámico, las relaciones estándar son 16:9 (no para fotografía, pero sí para vídeo), 2:1 (sólo fotografía), 2,39:1 (sólo cine).


También en fotografía podemos contar con la relación en vertical (un 2:3 o un 3:4 son el resultado de colocar la cámara en vertical), pero no tienen más misterio que aplicar las proporciones anteriores.


Por cierto, ya que hablamos de proporciones, ¿cómo sería la proporción aurea? en relación de aspecto? Pues el 1,6:1


Y, ¿cómo afecta la selección del aspecto a la comunicación? Una foto en horizontal será siempre más relajada para el observador que una vertical y cuanto más se acerque a formatos conocidos (4:3 o 16:9) menos tendremos que explicar por qué hemos optado por un formato u otro.


Tipos de archivo y compresiones.

Ya sabemos qué es un sensor, sus tipos y la relación de aspecto de los pixeles. Ahora toca ver qué formatos de archivo existen para guardar las fotografías y los fotogramas. Veamos los comunes.


El formato RAW ("crudo" en inglés) es la foto "en bruto" con todos los pixeles que ha conseguido la cámara, por lo que es muy pesada en la memoria interna. Es un "negativo digital" que ha de ser "revelado" y que no tiene un estándar (incluso tiene diferentes nombres, según la cámara - NEF, CRW, ARW, DNG... - que son incompatibles). A pesar de todo esto, es el mejor archivo para luego tratar la imagen (no olvidéis que no hay una imagen aún, ya que necesita de un programa (tipo GIMP o Photoshop) para que después tengamos una imagen.


El formato GIF (Graphic Interchange Format) sólo permite 256 colores y es muy simple. Ideal para dibujos de Internet y logotipos. Como seguro sabéis, también los hay animados.


El formato PNG (Portable Network Graphics) es un formato con gran compresión, ideal para colores planos. Mucho mejor que GIF, pero menos estándar, por lo que hay que tener cuidado si se usa para Internet.


El formato TIFF (Tagged Image File Format) era el estándar de las cámaras digitales hasta que el JPEG se llevó la palma. Es un formato muy "pesado" (vamos, que ocupa mucho espacio en las tarjetas de memoria).


El formato JPEG (Joint Photographic Experts Group) es el rey de los formatos de imagen. Las siglas que reconocemos son JPG y se usa para Internet de manera intensiva. La cámara comprime la imagen (lo que significa una pérdida de calidad/información), por lo que cuando se edita de nuevo en el mismo formato, perdemos aún más calidad. No obstante, si la foto se hace en este formato, ocupa poco en la memoria interna y además ya va editada (color, fondo, contraste, etc.).


El formato PSD es el de Photoshop. Como el PNG no es un estándar, pero se usa tanto este programa que no hay mucho problema a la hora de compartirlo.


Velocidades de obturación y efectos sobre la imagen.

La velocidad de obturación, es el tiempo en el que el obturador se encuentra abierto (apretura de diafragma) para captar la imagen en el sensor de imagen de la cámara. Veremos los fragmentos de segundo a continuación, pero os diré que el tiempo de exposición mayor que conozco es de medio minuto. Una verdadera barbaridad que se puede incluso alargar con una función llamada "bulb" (en el caso de que la cámara cuente con ella), que abre el obturador hasta que dejemos de presionar el botón del disparador. El resultado puede ser desastroso si tocamos la cámara.


Captar la imagen a la velocidad correcta es importante no sólo para conseguir una instantánea nítida acorde a nuestra idea original, sino para crear una serie de efectos sobre la imagen, que es en parte el objetivo de la explicación de este epígrafe. El movimiento queda captado casi instantáneamente si la velocidad de obturación es rápida (captando menos luz), pero en algún caso nos gustará captar el movimiento (como estelas de luz producidas por los faros de los coches) para lo que necesitaremos velocidades algo más lentas (captando más luz).


Para captar una imagen de un objeto, vehículo, persona o animal en movimiento y que quede "congelado" debemos sumar tres cosas: una velocidad de obturación rápida, una ISO alta y una apertura de la lente, a ser posible de gran tamaño. Para crear esa sensación de movimiento que comenté en el párrafo anterior, usaremos la configuración contraria.


No sólo nos sirven estas velocidades variables para la sensación de movimiento o su omisión. También captan situaciones con poca luz o para captar fotografías del cielo estrellado durante la noche. Otro efecto interesante es el "efecto seda" cuando captamos el agua a baja velocidad y la posibilidad de "pintar con la luz" cuando utilizamos algo que proyecte luz en movimiento sobre un objeto inanimado.


Las velocidades oscilan entre 1/16000 y 1/4000 para congelar el movimiento con nitidez; 1/2000 y 1/30 para fotografías normales y 1/15 a varios segundos para efectos de movimiento. Cuando la cámara tiene lo que se llama "velocidad B" en lugar de la especificación en segundos, lo único que tenemos que quitar es el uno de comienzo del número. De esa manera 1/2000 queda en 2000 en B.



PRESTACIONES CARACTERÍSTICAS DE LOS OBJETIVOS FOTOGRÁFICOS:


Tipos de objetivo.

Al sensor le llega la imagen (la luz) por el objetivo, que es un "tubo" con un buen montón de lentes. Las cámaras reflex se dividen en dos, las verdaderas reflex, que pueden tener infinidad de objetivos porque se enroscan al cuerpo de la cámara y las compactas, que tienen el objetivo incorporado de fábrica y con él hacen todas las funciones.


Los objetivos de las cámaras reflex se conectan al cuerpo de la cámara por la montura. Como cabría esperar con tantos fabricantes, la mayor parte de los objetivos no se pueden enroscar más que en un determinado tipo de cámaras. La exclusividad frente a la estandarización.


Luego tenemos que contar con el círculo de imagen, que, como sabemos, se corresponde con lo que la lente del objetivo capta y cómo se va a recoger por parte del sensor. Pensemos en una imagen de forma circular que va a ser registrada por un sensor cuadrado o rectangular. Un buen marco de luz va a sobrar y puede afectar negativamente a la imagen registrada.


Una vez tenemos el objetivo montado y sabemos el círculo de imagen que va a producir, debemos saber su distancia focal, que es un número en milímetros que determina el tamaño de la imagen por la distancia a la que capta la luz desde el horizonte y la abertura - relacionada con el número F, que luego veremos - y que es una proporción entre el diámetro de la lente y la distancia focal. Por último, hay lentes que girando discos de su objetivo, alargan y acortan la distancia entre sus lentes internas. Es un "zoom" que funciona como el enfoque, pero sin desenfocar y es óptico, no como el zoom de las cámaras digitales de los móviles.


Veamos los tipos de objetivos, independientemente de si se pueden separar o no de la cámara.


El objetivo estandar es el que reproduce la visión del ojo humano: 50mm


El Teleobjetivo capta distancias focales superiores a las del ojo humano: 300mm


El objetivo gran angular capta distancias focales inferiores a las que capta el ojo humano: distancia focal 22mm


Existen objetivos que cubren las tres distancias focales y se les llama polivalentes.


Para la toma de imágenes de objetos muy pequeños o que están muy cerca del objetivo, se usan objetivos macro. Si recordáis, los usamos en una actividad en la primera evaluación. También podemos recordar el ojo de pez, que capta la imagen a 180º.



Distancias focales, ópticas fijas y objetivos zoom.

Aquí es donde se nos complica el equipo. Podemos tener una cámara reflex, pero necesitamos llevar un buen número de lentes para cada tipo de fotografía. Con las compactas no pasa eso, claro, pero por ello son menos versátiles.


Las ópticas fijas - focal fija o prime lens - son de mayor calidad para las fotografías que cuenten con una distancia focal determinada. Si usamos una lente de 80mm para retratos, conseguiremos mejor resultado con estas ópticas fijas que con la lente que tenga una compacta, por muy versatil que esta última sea. Luego vienen los problemas. Quitar y poner lentes supone dejar al decubierto el sensor, con lo que se puede llenar poco a poco de polvo. Además, cambiar de lente cada poco es un engorro y muchos fotógrafos, como habréis visto, llevan dos cámaras con distintas lentes. Vamos, un incordio.


Una solución no perfecta es el empleo de los objetivos zoom, que sirven para varias distancias. Son algo peores a la hora de captar la luz (necesitan más ISO en general y más conocimientos por parte del fotógrafo/a) y perdemos nitidez, pero son cómodos porque con un sólo objetivo tenemos fotos de todo tipo de distancias.


Focales, formatos, ángulos de cobertura.

La distancia focal es la que se encuentra entre la lente y el punto focal. Si, además, contamos con el ángulo recogido en el punto focal (independientemente del ángulo de la lente) tendremos mayor o menor captación de imagen. Me explico. Una lente que recoja el campo de visión humano mandará al sensor la imagen que captaría un ojo. Si cambiamos la lente a un gran angular, que recogería más luz, tenemos que acercarnos al objeto fotografiado para conseguir tener el mismo encuadre que con la lente normal (por ejemplo, 50mm).


Enfoque y profundidad de campo.

Hablábamos de nitidez anteriormente. Eso es el enfoque y depende de la distancia del objeto que fotografiemos o grabemos con respecto a la cámara. Recordad que depende de las lentes (distancias focales) y el ángulo de cobertura. La profundidad de campo, a su vez, hará que sean más o menos nítidos los objetos de fondo. Cuando la profundidad de campo es reducida (plana), el diafragma se abrirá mucho y el fondo aparecerá desenfocado. Por el contrario, si la profundidad es profunda, el diafragma se abrirá muy poco y veremos el objeto que fotografiemos y el fondo con nitidez.


Diafragma y números F.

Entramos en complicaciones. El diafragma, como hemos visto, determina cuál va a ser la distancia a la que conseguiremos nitidez, modificando un aspecto más en la distancia focal, que no se limita al ángulo de cobertura. Piensa en tu propio ojo. Si te da mucho la luz, cierras los párpados (incluso frunces el ceño) y tu iris se hace pequeñito. Eso es lo que hacemos de manera mecánica con el diafragma. Un diafragma muy cerrado capta toda la imagen con nitidez en un framento de segundo. Si tenemos la pupila dilatada, como pasa cuando vamos al oculista y quieren ver algo del fondo del ojo, la luz nos molesta, vemos desenfocado y todo parece tener halos de luz a su alrededor.


Pues bien, esa apertura en el diafragma de la cámara determina la luz que llega al sensor y se mide en números f (relación focal entre apertura y distancia focal). Los números f variarán desde f/16 (que es casi el diafragma retirado) hasta f/2 que es el mínimo de apertura. Compáralo con tu visión y sería como si la pupila estuviese con el iris como un puntito en f/2 y dilatada por medicación en f/16.


Su aplicación lleva a que a mayor número f, mayor será la profundidaz de campo y la luz que entra estará más limitada.



TOMA FOTOGRÁFICA:


Relaciones entre sensibilidad, iluminación, velocidades de obturación y diafragma.

Realmente todo está bastante relacionado. Sin ser del todo cierto podemos aplicar esta regla básica para saber cómo disponer las opciones de la cámara para tomar imágenes. Veamos.


Si la velocidad del diafragma viene determinada por el Número F (recuerda, 2 es mucha apertura - primer plano nítido, fondo difuminado - y 22 poquísima - primer plano y fondo nítidos -); si la velocidad de obturación determina la nitidez, especialmente del movimiento (1/1000 es congelar la imagen y 1/2 es el efecto seda o estela) y la sensibilidad a la luz se mide con el ISO (ISO 100 es un contraste drástico entre oscuros y claros y el ISO 12800 sería mucho ruido y poco contraste). Si todo esto es así, podemos relacionar los tres aspectos con la iluminación.


Para una imagen con fondo difuminado y primer plano nítido, con mucha iluminación y nulo movimiento, la velocidad de diafragma, la de obturación y el ISO deberían ser bajos. Por el contrario, para conseguir nitidez en todos los planos, captar el movimiento congelándolo y la iluminación algo floja, la velocidad de diafragma, la obturación y el ISO deberían ser altos.


Composición del encuadre.

El encuadre y los planos van de la mano, por lo que ya sabemos de planos lo podremos aplicar aquí. No obstante, es importante tomar en cuenta los colores y las formas de la imagen que queramos captar. Yo lo llamo "peso". Lo que importa tiene que "pesar" más que lo secundario. Para ello tendríamos que usar la regla de los tercios.

¿Recordáis esos juegos que venían en las revistas de pasatiempos en los que había que copiar un dibujo simplemente trasladando cuadrado a cuadrado lo que veíamos en el original. Pues algo parecido podremos conseguir en nuestra cámara si optamos por activar las "directrices" o "guías" (en inglés "guidelines"). Mirando por el visor tendremos dividida la imagen en nueve cuadros. Pues bien, lo importante, lo que "pesa" tendrá que estar en uno de los tercios que crean esas guías y el punto de atención en una de las intersecciones de esas guías.


No es necesario que esté en el centro (que puede ser más grande o menos grande que los otros cuadrados de la cuadrícula o retícula, pero sí que ocupe tres de los cuadrados / rectángulos, incluso en L.


Pero por favor, las reglas están en estos casos para romperlas si tenemos ideas mejores. No dudéis en hacer algo más complejo si creéis que el resultado va a ser más valioso.


Técnicas de toma instantánea.

Jo, ¡qué recuerdos! Puede que conozcáis las Polaroid antiguas (aún se hacen cámaras Polaroid, pero son digitales y distan poco de las otras cámaras compactas). Instagram tiene un icono que recuerda al arcoíris de Polaroid, incluso las fotos cuadradas.


Cuando salías por la noche con los amigos en décadas pasadas, no teníamos móviles ni cámaras para hacernos fotos de grupo. Unos fotógrafos/as ambulantes con Polaroids se ofrecían a inmortalizar nuestros momentos de diversión y en menos de un minuto teníamos una foto revelada en la mano. Incluso recuerdo que colocaban la cámara del revés para aprovechar el efecto del flash desde abajo. Lo dícho, ¡qué recuerdos! Esto desapareció cuando en 2008 Polaroid dejó de fabricar la película fotográfica para estas cámaras.


Lo que quiere decir hoy en día la toma instantánea es que la foto tiene que salir a la primera. Por ello debemos preparar la fotografía antes de tomarla, no vale elegir luego la que más nos guste. El encuadre, la sensibilidad dependiendo de la luz del momento, la selección del color que se va a recoger ("temperatura de color") y tratar de captar con la máxima calidad (lo que implica nada de compresión, por lo que mejor TIFF o RAW que JPEG) harán que la instantánea sea de mayor calidad.


Nunca será tan buena como un retrato bien hecho, con iluminación de estudio, tantas tomas como haga falta y retoque de edición fotográfica, pero casi. Si estás en un evento deportivo o en un concierto, sabrás lo que digo cuando tomes una foto y quieras venderla a una revista o periódico.


Técnicas de retrato.

Si hay un oficio asociado a la fotografía es el de estudio fotográfico. Y allí se realizan fotografías que en gran medida son retratos de los clientes que nos contratan. Por eso este apartado es fundamental.


Para empezar, plantea el plano. Primer plano, medio plano o primerísimo plano. Incluso para un retrato de cuerpo completo necesitarás plantear el ángulo. Una vez tengas la decisión (la persona retratada te va a dar pistas en algunos casos sin decir nada, ya que algo de ella será llamativo) coloca las lentes apropiadas a la distancia (mejor siempre fijas si estás en el estudio, pero nunca puedes tener de todo en la calle), enfoca (atiende a si quieres que el fondo salga más o menos nítido) y ten cuidado con el retratado o retratada. Hay fotógrafos especializados en niños, que se mueven mucho y son complicados de enfocar; en grupos como, por ejemplo en la foto de grupo de clase de Bachillerato, en el que tienes, además, que dar instrucciones a todos para que salga lo mejor posible.


Y, ¿qué es lo más importante de un rostro? Puede que todos coincidamos en la mirada. Pero siempre hay un margen para otras posibilidades. Los labios, la nariz o simplemente el pelo. Pero acertarás si te centras en la mirada del modelo. No olvides en pensar si es mejor hacer una foto de frente (fontal) o de perfil. En el caso del perfil, hay varias posibilidades pero piensa en el rostro como en una figura geométrica o un prisma con dos lados a la derecha y otros dos a la izquierda además del frontal. Además, el perfil permite tomas traseras (con la espalda de frente o de lado).


Si el retrato incluye parte del cuerpo o el cuerpo entero, debemos pensar en la postura o pose, además de lo que hemos visto en el, rostro. Con un modelo o una modelo profesional, tendrás muchos pasos adelantados, pero con público en general, tendrás que ser creativo. Puede que esa pose tan fantástica que te proponen sea pobre y no ofrezca nada. La naturalidad te permitirá encontrar mejores momentos y poses, por lo que te conviene permitir que el modelo se sienta cómodo y seguro, casi como si no le estuviésemos retratando, para conseguir lo mejor de ella o él.


Luego viene el fondo. Si estás en un estudio, ya habrás pensado en tener un telón de fondo o en añadir diversos elementos. ¿Has visto las fotos de época en las que aparecen unas sillas muy llamativas y jarrones de flores? Pues eso, trasladado a nuestra época será vestir el fondo de algo que nos atraiga sin hacer que el rostro se pierda y en contar con una iluminación apropiada. Por un lado, debemos iluminar de manera correcta el rostro para evitar sombras no deseadas (nunca de frente y siempre desde distintos puntos) y, por otro, hacer que la luz sea parte de la fotografía, igual que el fondo. Por cierto, no he dicho nada del flash y los tiempos, pero habrá que verlo más adelante.


Este apartado puede continuar por mucho rato y ocupando más de un curso, por lo que debemos dejarlo aquí. Lee y practica todo lo que puedas, porque es fundamental.


Técnicas de captación de objetos o personas en movimiento.

El objetivo de este apartado no puede ser sólo cómo se capta un objeto o una persona si está en movimiento, es decir; cómo conseguir plasmar esos dos objetivos, sino cómo hacernos con el momento, con el movimiento. La velocidad de obturación es el elemento fundamental para este tipo de fotografías. Si usamos velocidades elevadas (1/2000, por ejemplo) el objeto o la persona quedarán congeladas en la imagen, como si flotasen. Si es nuestro objetivo, fantástico.


Pero si queremos conseguir captar el movimiento, la velocidad de obturación debe bajar drásticamente, incluso por debajo de lo que debiera de ser lógico de primeras (incluso por debajo de 1/10). Con esta larga exposición, el movimiento queda como una estela en la imagen. Además, cuanta más luz capte el sensor y más estable se encuentre la cámara, mejor será la posibilidad de captar el movimiento y el objeto o la persona a retratar será más nítido.


Después conviene plantear el encuadre. Dejar justo en el medio al objeto o la persona en movimiento da espacio que recorrer. Por ejemplo, si tenemos un ciclista que parte de nuestra izquierda y va a la derecha de la imagen, siempre será mejor dejarle completo en el primer tercio vertical, un poco en el centro y dejar vacío el tercio derecho.


Mucho más fácil es todo esto si empleamos vídeo. Con un barrido, un movimiento captado con la cámara parada, con un zoom forzado y sobre todo con la perspectiva (desde abajo, desde arriba, en plano aberrante, etc.) conseguiremos no sólo captar al objeto o la persona, sino también al movimiento en sí.



PRESTACIONES CARACTERÍSTICAS DE LAS VIDEOCÁMARAS:


Tipología de videocámaras y funcionalidades.

Ya hablamos de los tipos básicos de cámaras de fotos digitales (compactas y de objetivo recambiable, principalmente). Veamos ahora las de vídeo. Podemos aplicar la misma distinción que en las de fotos, ya que en muchos casos vamos a usar indistintamente una cámara DSLR para tomar fotos y captar vídeo, pero en el mundo profesional, siempre hay cámaras especializadas. Os animo a pensar en dos tipos de videocámaras: las portátiles y las fijas. Si nos vamos a rodar una escena en la que tengamos que movernos, las videocámaras son de tamaño medio o pequeño, ya que tenemos que poder llevarlas sobre el hombro. Pero si estamos en un estudio o rodando una película, la mayor calidad y la no necesidad de mover una "mole" hará que se opte por las cámaras de gran tamaño.


Cuando la cámara es portátil, suele incorporar todo tipo de artilugios para no requerir de más equipo externo. Por ejemplo un micrófono para el audio y una lámpara para la iluminación. Y todo ello muy compacto y pequeño, por lo que el resultado puede ser semiprofesional, pero no muy avanzado. Ahora se ha mejorado mucho, ya que anteriormente necesitaba espacio para la grabación y conservación de las imágenes captadas y se usaba cintas de vídeo. Un mamotreto llamado camcorder. Con los CDs se redujo el peso y el volumen y no os quiero decir nada con las tarjetas de memoria.


Luego están las cámaras de estudio, que son muy ligeras ya que no tienen nada más que captar las imágenes. La toma de audio se realiza mediante micrófonos y la iluminación está a cargo de otros profesionales. Las cámaras están en trípodes o en grúas para el traveling y se conectan con la consola central mediante cableados.


Por cierto, no sería justo terminar sin hablar de las películas de Super-8, los "tomavistas". Toda una delicia en su tiempo, con mini películas que de forma casi directa llegaban a los proyectores caseros.


Formatos de vídeo, compresiones, códecs, tipos y tamaños de sensores.

Vimos los JPEG, los RAW, los GIF y otros formatos para foto. Ahora completamos con los de vídeo. En vídeo tenemos menos formatos, por lo que es más sencillo encontrar el estándar en el formato AVI (Audio Video Interleaved). Es de peso elevado en el ordenador y emplea un códec DV, que para su compresión puede usar DivX o XviD. Creo que todos los programas de reproducción de vídeo son capaces de leerlo, con o sin compresión.


El otro gran estándar es el MPEG (Moving Pictures Expert Group). Os recordará al JPEG y hace más o menos lo mismo. El vídeo queda comprimido de forma automática y lleva asociados unos números. El "1" es para calidad CD, el "2" para DVD, el "3" para compresión de audio y el "4" para compresión en páginas web donde el peso debe ser el mínimo posible.


Las dos compañías grandes de software cuentan con sus propios formatos que son el WMV (Microsoft) y el MOV (Apple - QuickTime) con compresores y códecs particulares, todos pensados para la red y por último los de Real Time (RT) y Adobe Flash (FLV) que es un estándar para los productos de Google (YouTube, por ejemplo).


Los sensores los vimos en la sección correspondiente cuando vimos las cámaras de fotografía.


Soportes de grabación.

Hoy en día, parece anticuado este epígrafe, ya que sólo parece que tenemos grabación digital a tarjetas SD o a disco duro, pero debemos conocer cada uno de los soportes empleados en vídeo a lo largo del tiempo tanto para conocerlos como para ver si se pueden ajustar a nuestras necesidades actuales.


La grabación inicial (siempre que la cámara grabase y no fuese una mera transmisora entre la imagen y la consola de producción) era sobre celuloide, igual que para el cine y la teníamos en los tomavistas, principalmente. Pero una vez las cámaras se popularizaron y apareció el vídeo doméstico se pasó a la grabación en cinta electromagnética, igual que las cintas de audio. Los sistemas variaban, pero los principios eran los mismos. Teníamos el VHS, el Betamas, y el Vídeo 2000 como los primeros estándares hasta que el VHS dominó el mercado. Después vinieron las cintas de tamaño reducido para cada uno de esos formatos y que requerían de un adaptador para ser vistas en los VCR - las consolas de vídeo de cada uno de esos formatos - hasta que llegó la cinta digital y revolucionó todo. Los datos se grababan ahora en formato numérico y la imagen que se veía era fiel a la que había sido recogida, evitando la degradación por la cinta misma.


Después se pasó al soporte digital. Primero con la grabación en disco, tanto CD como DVD y pasó pronto a la grabación en tarjeta, como las compact Flash. Los principales problemas fueron, la velocidad de grabación - muchos datos para meter en tampoco tiempo en un soporte digital - y la capacidad de grabación - pocos minutos de vídeo por tarjeta. La grabación a disco duro (HD) solucionó parte del problema, pero era necesario el cable para sacar los datos y ahora tenemos tarjetas de memoria SD de hasta 128 Gigas, una pasada para grabar todo lo que queramos en un espacio reducido.


Relaciones de aspecto 4:3 y 16:9; relación de aspecto del pixel.

Los formatos estándar para vídeo son 4:3 (la antigua televisión o "fullscreen") y 16:9 (el formato cine o "widescreen"). Cuando grabamos para uno, tendremos problemas para el otro. Hoy en día, el 16:9 es empleado en todos los formatos de vídeo, ya que los monitores de ordenador, las televisiones, los móviles y muchas consolas de videojuegos comparten este formato con el cine, por lo que el 4:3 ha caído en desuso, pero al principio del formato digital, e influído por el uso doméstico de estas tecnologías en los años 80 y 90, tenías la posibilidad de pasar de uno a otro según tus necesidades. Incluso era posible comprar una película en formato VHS o DVD tanto en 4:3 como en 16:9.


Para nosotros, en la actualidad, es un problema menor, pero vamos a ver cómo se mantiene la relación de aspecto, cómo se soluciona el que en 4:3 haya parte de la imagen de 16:9 que no se vea y qué cálculos debemos realizar para ello.


Tenemos que calcular el decimal de cada una de ellas. Para 4:3 será 1,33:1 y para 16:9 será 1,77:1. Según la calidad de la imagen (cantidad de píxeles) tendremos que realizar una operación u otra para pasar de una relación a otra. Además, el pixel de televisión es rectangular (2:1) frente al pixel cuadrado (1:1) de los dispositivos digitales, tales como el ordenador o las consolas. Sinceramente, hay pocas posibilidades de éxito y es mejor que el programa de ordenador (o la aplicación móvil que manejemos) lo haga por sí mismo.


El resultado será el siguiente: una imagen 16:9 en 4:3 perderá los márgenes laterales (si grabas en 16:9 sabiendo que la hay posibilidad de ir a 4:3, no pongas nada relevante en los tercios externos de la imagen) y si pasas de 4:3 a 16:9, la pantalla ampliará el centro y eliminará los tercios superiores e inferiores. Otra opción son las franjas negras. De 16:9 a 4:3, tendrás franjas negras en la parte superior e inferior de la pantalla y en el paso de 4:3 a 16:9, las franjas negras estarán en los laterales derecho e izquierdo.


Imágenes por segundo y exploración.

La imagen cinematográfica y de vídeo se compone con el efecto que produce un número elevado de fotografías estáticas proyectadas en fracciones de segundo. Los fotogramas por segundo que un ojo de un ser humano ya confunde con movimiento son aproximadamente doce. Se llegó al estándar de 24 imágenes por segundo en los años 30 del siglo pasado (con la entrada del cine sonoro). Se han probado tasas de refrescamiento (lo mismo que "fotogramas por segundo") de hasta 300. Hoy en día se ronda los 48p o los 50p por los problemas que siempre se han tenido con las televisiones y eso nos lleva a ese concepto extraño de "exploración".


Por exploración, en este apartado, nos referimos a exploración entrelazada (interlaced scanning), para evitar el parpadeo de las televisiones de tubo. ¿Os habéis fijado en que cuando se grababa en vídeo una televisión de esas de tubo, siempre tenías unas rallas molestas y muy anchas que impedían una toma nítida, incluso cuando no apuntabas a la televisión? Pues eso es el parpadeo que quiere evitar la exploración. Las cámaras de vídeo, más rápidas que el ojo humano, se daban cuenta y lo registraban. Se deben al barrido del barrido de rayos catódicos.


Hoy en día está bastante solucionada, ya que las televisiones tienen tiempo de almacenar la imagen y proyectarla con seguridad, incluso con duplicados.


Canales y opciones de audio.

Todo empezó con la posibilidad de grabar y reproducir audio. Como la fuente sonora es focalizada, se empezó por un canal mono. Pronto se vio que tenemos dos oídos y que gracias a ello podemos detectar la procedencia del sonido y espaciar las fuentes sonoras en nuestra percepción, se pasó al estereo.


Todo bien, especialmente para Música y diálogos hasta que se entró en la dimensión del sonido. El 3D auditivo estaba muy bien y es más que suficiente, pero era necesario ampliar su campo. De ahí los sistemas X.1, donde X es sustituible por el número de altavoces (4.1, 5.1, 7.1, etc.) a dividir a derecha e izquierda y el subwoofer.


Cuando grabemos, tenemos que tener en cuenta los canales de audio, especialmente si hay más de dos. Para recrear el sonido estereo, tomaremos la señal con dos micrófonos o con uno que permita captar las fuentes sonoras por separado. Para más canales, la microfonía y el trabajo de la mesa de mezclas (número de canales de recogida) será mayor.

Objetivos integrados y ópticas intercambiables.

Terminamos este enorme apartado con algo que ya conocemos. Las cámaras réflex actuales se diferencian por la posibilidad de tener el objetivo integrado y ser de una pieza (compactas) o por tener la cámara por un lado y el objetivo por otro (las más avanzadas).


Evidentemente, si el objetivo es intercambiable, no tenemos por qué limitarnos a lo que ofrece la cámara de fábrica y podemos intercambiar diferentes ópticas, pero la inversión inicial será mayor y tendremos los problemas de las roscas, ya que cuanto más cambiemos los objetivos, mayores serán las posibilidades de que los carriles se den de sí.



TOMA CON VIDEOCÁMARAS:


Encuadre y enfoque.

Los encuadres ya están vistos en otro bloque, por lo que vamos a centrarnos en el enfoque.


Cuando encuadramos, decidimos cómo vamos a retratar una persona, un objeto o un paisaje. Con el enfoque decidimos sobre qué vamos a fijar la atención y qué vamos a hacer resaltar al espectador. Es una cuestión de nitidez, pero también de composición. Tomaremos en cuenta la profundidad de campo y la distancia focal para que aquello que nos resulta importante quede nítido, independientemente de lo que tenga delante o detrás.


Tendremos que pensar en si aquello que queremos enfocar está estático, puede moverse de manera impredecible (retrato de niños) o no deja de estar en movimiento (fotografía deportiva). Controlaremos todos los aspectos previos (luminosidad, encuadre y composición) y por último encuadraremos.


Movimientos de cámara.

Recordarás que las cámaras y los objetivos se podían mover de distintas maneras, empleando las coordenadas de la imagen (arriba, abajo, derecha, izquierda) y luego se podían mover en una grúa o vagoneta. Y después de todo esto, teníamos el zoom, que es un movimiento no físico, sino óptico. Vamos ahora a ver todos de forma organizada.


Los movimientos físicos son las panorámicas (horizontales y verticales), los travellings y las rotaciones.


Los movimientos ópticos son los que se producen por los cambios de disposición de las lentes en los objetivos. Son el Zoom y el Foco (lo vimos en el párrafo del enfoque). En ambos casos, cambiamos la perspectiva del espectador.


El movimiento digital usa la imagen tomada y la modifica. Los dos más comunes son el zoom digital, que se diferencia del zoom óptico en que realmente es un recorte de la imagen. En cámaras de baja calidad, tendremos una pixelación importante. El segundo de estos movimientos digitales lo produce el estabilizador del sensor. Cuando la cámara hace sus ajustes para estabilizarse, se produce un desplazamiento que aún siendo algo que solemos despreciar, nos puede resultar atractivo, porque se ajusta como un mini-trávelling y genera movimiento. Es como en una película es espías en la que vemos desde la cámara del espía cómo hace fotos a quién esté merodeando y vemos cómo se ajusta de manera automática, pero moviendo y enfocando la imagen.


Ajustes de luminancia y color.

Estos ajustes sirven para modificar la calidad de la imagen. Como la imagen fotografiada es en realidad luz, estos ajustes pueden servir para mejorar, incluso modificar, la realidad fotografiada.


Una fotografía capta una serie de gamas de color. En blanco y negro oscilan entre uno y otro y todos los matices de grises intermedios y en color captará toda la gama que el sensor pueda recoger. Aquí es donde los ajustes de luminancia entran en juego. Lo que hace este control es hacer más brillante (o menos) una determinada franja del espectro lumínico, destacando o suavizando luces y colores de la fotografía y consiguiendo diversos objetivos dentro de una imagen.


Cuando llevamos al máximo un color, este quedará brillante y difuminado, mientras cuando lo llevamos al mínimo, quedará oscuro y sin brillo. Imagina que quieres resaltar un objeto, el color del mar o del cielo, destacar o apagar el fondo y, sobre todo, dejar que los colores de los paisajes brillen como nunca.


Los ajustes de color tienen que hacerse con cuidado, ya que el resultado final puede quedar tintado y excesivamente falsificado. El equilibro de colores no puede ser roto (a no ser de que sea nuestro objetivo artístico) si queremos dar con una imagen realista. Con estos ajustes llegaremos a modificar los enfoques, los filtros, las intensidades, la saturación del tono y en equipos digitales, podremos seleccionar un sólo color para modificarlo frente a los demás.


Conexión de micrófonos y líneas.

Le dedicaremos más tiempo en un bloque posterior a la microfonía y las distintas tomas, pero vamos a adelantar algo de materia.


El título de este apartado hace referencia a los dos tipos de entradas que una mesa emplea para recoger señal de audio. La primera, la de micrófono es una entrada circular bastante ancha con tres huecos para insertar el micrófono, normalmente para registrar la toma de un micrófono. La segunda es la entrada de línea para conectar lo que conocemos por jack (de calibre 6,35 mm, porque los calibres inferiores no son apropiados para uso profesional) y que, aunque podemos encontrarnos con micrófonos que emplean esta entrada (balanceada o no) suele ser para instrumentos de Música.


Son entradas analógicas, porque en la actualidad se suele poder conectar también - y en algunos casos de manera exclusiva - las entradas digitales, principalmente ópticas.


Monitorizado y ajuste de niveles.

Una vez tenemos conectadas las entradas de audio, la mesa de mezclas dejará los volúmenes en posiciones óptimas para la edición de vídeo y audio al tiempo. Por monitorizado entendemos los ajustes de sonido realizados por el técnico de sonido para conseguir captar todas las señales, independientemente de su balance, mientras que el ajuste de nivel de sonido hará que los sonidos sean proporcionados en volumen y espacio los unos con respecto a los otros.


En un concierto de Música, esto se ve bastante bien y nos sirve de ejemplo, aunque no sea el campo audiovisual propiamente dicho. En esas situaciones, se colocan los micrófonos, los instrumentos eléctricos pasan por línea a la mesa de mezclas y el técnico de sonido, cuando tiene la señal perfecta de cada elemento de forma individualizada, dispone los volúmenes parciales de cada instrumento o cantante para que suenen equilibrados.


En la toma de sonido para una obra audiovisual, los micrófonos se colocarán estratégicamente de igual forma, para captar todo el audio posible (ya sean los diálogos como el sonido ambiente) y fuera del campo visual de las cámaras para que no sean captados en la imagen. El técnico de sonido los recogerá primero para ver si todo es captado de manera óptima y por último (siempre que sea posible, fuera de la grabación en directo) tratará de mezclarlos, ajustándolos a las imágenes.


AJUSTE DE CONDICIONES LUMÍNICAS CON FLASHES FOTOGRÁFICOS E ILUMINACIÓN LIGERA:


Equipos de iluminación para fotografía y para vídeo.

Los equipos de iluminación se dividen en las fuentes de luz continua, como pueden ser focos alógenos, lámparas de tungsteno, fluorescentes o leds, que iluminan lo que estamos fotografiando y las iluminaciones puntuales, como puede ser el flash, tanto de nuestra cámara como otros colocados en distintos puntos con activación remota (desde donde estés para tomar la imagen) para esa toma fotográfica o de vídeo. En el caso de flash, podemos contar con los pequeños que se ajustan a la cámara o con los de estudio, que son tan grandes como las luces continuas.


Hay unas luces intermedias que se llaman de modelado y que funcionan de manera continua, pero simulan lo que vamos a obtener con los flashes.


Los equipos de luz continua son grandes, pesados y consumen mucha energía. En algunos casos, también son caros, aunque cada vez es más fácil conseguir equipo económico de prestaciones aceptables.


A parte de todo ello, habrás visto que se usan pantallas reflectoras y sombrillas (incluso paraguas) que reflejan la luz de una fuente para que de en otros sitios que no están directamente iluminados. En otros casos suavizan la iluminación, especialmente de los flashes o todo lo contrario, como es el caso de los difusores que se acoplan directamente a la fuente lumínica.


Después nos quedan los filtros de colores, por si no queremos aplicar un filtro a toda la fotografía, pero sí queremos tener tonos de luz en el fondo o en lo que estemos grabando o fotografiando. Y una pantalla trasera en blanco para crear un fondo neutro.


Y, por supuesto, la luz solar. Posiblemente la mejor si contamos con ella en el momento de la exposición. Una ventana abierta puede ser útil para algunas tomas, posiblemente no para un estudio fotográfico profesional, pero sí para nuestras producciones caseras.


Exposición.

Encuadramos una imagen que queremos fotografiar, la focalizamos, empleamos el fotómetro para medir la luz que tenemos y que va a modificar nuestros ajustes de cámara. ¿Y ahora qué?


Podemos pensar primero en cómo realizar la exposición. No olvidemos que estamos haciendo fotografía digital, por lo que los pixeles pueden verse afectados por los ajustes, creando lo que llamamos "ruido" en un bloque anterior. Para evitar eso, podemos tener un tiempo de exposición alto, con el fin de captar la luz en el sensor de nuestra cámara de manera óptima y sin omisión de datos para él. Los colores que fotografiemos estarán registrados a placer. Podremos darle un tiempo correcto a la exposición o, por el contrario, forzar la captación a un grado mayor de exposición para captar más luz o menor, para apagar brillos y oscurecer la imagen.


Para controlar esto, ya sabemos dos técnicas; la del ISO y la de la velocidad de obturación.


Histogramas.

Habréis visto esos diagramas estadísticos de barras donde un valor se representa como un rectángulo. Lo recordaréis de cuando hacíais estadísticas de temperaturas (como una línea) y las precipitaciones (con estas barras que os comento).


Pues bien, en fotografía empleamos este tipo de diagramas para representar con una especie de "montaña muy rocosa" una repetición de valores lumínicos en una imagen. Todas las cámaras digitales de mayor o menor calidad cuentan con uno y debemos saber leerlo.


Como estamos en fotografía y vídeo digital, el valor del eje vertical es el número de píxeles y el horizontal es el de la gama de luminosidad (que no de color). Se ve en blanco y negro (aunque los he visto en color en cámaras buenas y ayuda mucho) para indicarnos si de una determinada franja contamos con más píxeles que de otros. A fin de cuentas es una representación estadística.


Tiene mucho que ver con la exposición de los párrafos anteriores y contamos a la izquierda con los tonos oscuros y a la derecha los claros, para quedar en medio los neutros o de carácter medio. Con ello determinamos la exposición.


Ayuda con los contrastes y evita "picos" descompensados de una gama en concreto que desequilibren la imagen.



CAPTACIÓN DE PIEZAS AUDIOVISUALES:


Fragmentación y puesta en escena, organización del espacio de la toma.

Cuando hablábamos de la creación de un guión, recordarás que había una "normalidad" que debíamos hacer presente al espectador desde el principio. La puesta en escena se corresponde con esa "fantasía hecha realidad".


Creamos o recreamos un mundo en el que los acontecimientos narrativos del guión se sucederán de forma natural, incluso en la más poderosa de las ficciones. Para ello, tras la lectura del guión técnico, se recreará el espacio donde los actores realizarán su trabajo delante de la cámara, tomando en algún caso parte de los tópicos del género para el que se está rodando. Si todo el desarrollo del guión se ha hecho de forma correcta, los encargados de las cámaras sabrán dónde situarse y todo será orquestado de manera completamente eficaz.


Para ello será necesario fragmentar el espacio según las acciones, organizando el espacio para cada toma, independientemente del número de cámaras que registren la actuación. La escenografía, los decorados, vestuario, maquillaje, atrezzo e iluminación son elementos importantísimos en este punto de la realización, por lo que todos los miembros de estos equipos, incluyendo los técnicos, deberán estar coordinados. Después el sonido - diálogo, sonidos de fondo y ambiente y la banda sonora musical - se acoplarán para crear la unidad que es la escena.


Ordenación de secuencias y planos.

Ya conocemos los planos y qué es una secuencia (incluso que es un plano secuencia, pero eso no es de lo que trata este apartado). Ahora tenemos que ver cómo ordenarlos en una realización cinematográfica.


Previo al montaje, las tomas deberán estar clasificadas para ser luego reordenadas en la edición final. Como si fuese un puzzle, pero más como si fuesen piezas de un juego de construcción, ya que las piezas son intercambiables, las tomas se pueden mezclar de maneras variopintas e incluso mejores de las que en un principio se tenían planteadas.


Veamos ahora cómo se pueden catalogar para el orden posterior estas tomas.


Identificación de imágenes y edición de etiquetas de metadatos.

Las fotografías se guardarán en una librería de datos que debemos etiquetar y catalogar para encontrar sin problemas aquello que hayamos registrado. Para ello se usan los nombres de las fotografías (fotos_del_jueves 001, por ejemplo) y los metadatos incorporados.


En estos metadatos podemos encontrar ubicación, autor, fecha, etc. Las cámaras tienen una serie de opciones para la edición de estas etiquetas, pero si queremos estar seguros, hay programas de ordenador que las modifican a nuestro gusto.


Por último, hay que tener cuidado con los metadatos que sean asociados a la imagen o vídeo de manera automática, porque pueden tener información "sensible" y personal nuestra. Y no sabremos que estamos dándola sin nuestro consentimiento si no estamos seguros de qué queremos catalogar en ellos y qué queremos que se mantenga oculto o no se registre.


Características técnicas de los sistemas de registro de vídeo digital.

Por sistema de registro de vídeo se entiende no sólo la cámara o cámaras que graban, sino todo aquel aparato que aporta su función a la cadena de registro y en definitiva, se suele referir a estudios de grabación.


Cuando pensamos en un estudio de televisión, pensamos en varias cámaras mandando la imagen a una única consola donde el realizador hace la mezcla con la selección de los distintos puntos de vista que le ofrecen los distintos puestos. Esta grabación multicámara requiere de la posibilidad de contar con diversos monitores (o uno dividido en diversas pantallas en un cuadrante) para la visualización simultanea de las distintas cámaras.


Si queremos complicar más el sistema, podemos añadir cámaras en distintos sitios o lugares, como por ejemplo cuando hay una retransmisión en directo con una sede en el estudio central de una cadena y diversos periodistas cubriendo una noticia en exteriores, incluso en distintos países. Las distintas señales deberán llegar a una misma unidad central y se mezclarán igual que si todo procediese del mismo lugar.


Todo se graba en disco duro (tanto las tomas individuales como la mezclada) y el resultado es un único producto que ofrecer, pero una multitud de datos que se han sumado a su creación.


Soportes de registro idóneos a diversas tecnologías de captación de imagen.

En parte hemos hablado de estos soportes. Como recordarás, el vídeo se centra en alta calidad (avi) y calidad de Internet (mp4). Los soportes de registro serán los sitios que podemos usar para mantener esos archivos. A día de hoy, la opción es clara; discos duros y tarjetas SD. La velocidad de refresco de estos dispositivos es importante y cuanto más alta mejor. Pero eso ya casi no es problema, ya que la calidad más alta es cada vez más accesible y económica.