Actualidad Macintosh en español

 

 


Indice de Foros
Temas activos
Mensajes privados
Downloads
Links / Buscador
Compraventa



Auténticos artículos
coleccionables de Apple


Macu te necesita

Vótanos en la revista ReD


Entrevista a Mario Handler, prestigioso cineasta uruguayo
Recientemente ha realizado la película «Aparte», en DV y con Final Cut Pro

9/5/2003

En su larga biofilmografía podemos ver que lleva cosechando premios sin descanso desde 1965, y es que a sus 67 años, Mario Handler es ya un nombre de peso en el mundo cinematográfico.

Siguiendo nuestra línea de entrevistas a realizadores de cine documental desde material DV, no podíamos dejar pasar la oportunidad de hacernos con su testimonio en su reciente visita a España, para participar en el Festival de Málaga y también en los debates y mesas redondas sobre el cine documental latinoamericano realizados estos días en la Casa de América, Madrid. La ocasión no era para menos. Su último largometraje documental, «Aparte» ya está dando mucho de qué hablar en Hispanoamérica y comienza ahora a ser referente en Europa.

Durante 18 meses, Handler se introdujo en un suburbio de Montevideo armado únicamente de una discreta videocámara DVCAM, mostrando al mundo instantáneas imposibles de «vivir» de otra manera. Se introdujo entre sus protagonistas suavemente, pasando practicamente a ser uno más de ellos, facilitando el extrovertismo ante la cámara. Incluso en ciertos momentos puso en manos de los protagonistas una videocámara, y de ahí consiguió algunas de las mejores secuencias de su película.

Drogas, prostitución, madres solteras, menores, delincuencia, hambre, muerte, prisión... visto desde dentro en una de las ciudades mejor desarrolladas de América Latina. La empatía del espectador funciona rápido, el tránsito de rechazo inicial a encariñamiento con los personajes es directamente proporcional al impacto de sus imágenes. No actúan, simplemente son ellos.

Dentro de lo sencillo que pudiera parecer, el proyecto era harto ambicioso, y para ello contó con tres importantes subsidios:

  • Fona 2000: 40.000 $
  • Premio Universidad de la República 2001: 12.000 $
  • Premio Prince Claus (Holanda): 30.000 Euros

Para saberlo todo acerca de «Aparte» es imprescindible visitar su página web, donde además hay alojados extractos del audio original de la película, más de 70 fotografías y cómo no, el trailer.

En esta extensa entrevista, Mario Handler va a contarnos los entresijos técnicos de esta realización. Les puedo asegurar que se aprende mucho, no se la pierdan.

Entrevista

¿Por qué eligió el formato DV?

Culmina una evolución narrativa y estética mía, no es un problema meramente técnico. Al ir viendo mis viejas películas, sobre todo de los años 60 y 70, dirigidas al ser humano y de ámbito social, fui redescubriendo que la que más me gustaba era «Carlos, cine-retrato de un caminante en Montevideo» (año 1965), que la hice con una cámara no sincrónica, de 16mm, y después le agregué sonido. Trataba de un vagabundo en las calles de Montevideo, lo acompañé durante diez meses con una cámara 16mm. El método consistía en mantener una relación humana con un aparato no excesivamente notorio, acostumbrar al protagonista y a los demás a mi presencia, convertirme en personaje transparente, como una mosca perdida por ahí.

Cuando llegan a aparecer los primeros equipos portátiles de vídeo, que eran horrorosos y no me gustaban nada. Poco a poco fueron evolucionando, e hice trabajos para otros, de edición; y siempre estaba disconforme, por un lado la calidad estética, la fotografía propiamente dicha. En vídeo sobre todo te decían «no puedes hacer contraluces», ni siquiera cuando apareció el Hi-8, que fue un gran progreso en el campo de aficionados. Las cámaras que venían para U-Matic, formato por aquel entonces importantísimo en lo periodístico, tampoco permitían contraluces, y había que tener la precaución de no apuntar a luz directa para no quemar el chip.
Eso me disgustaba mucho, porque toda la vida fotográfica desde que uno aprende desde joven y en todo el cine, casi todo es contraluz. Es decir un contraste marcado y la luz en contra, no a favor como un noticiero. La calidad era de noticiero. Cuando aparecen los Betacam, muy buenos pero muy grandes, muy notorios... más grandes que las cámaras que yo usaba en cine. Entonces me fui asesorando lentamente por mi magnífico asesor argentino que vive en Caracas, a través de e-mail y personalmente y repentinamente aparece el sistema DV, pero sobre todo el DVCAM y poco a poco se fue aclarando el panorama.

Viendo cámaras, probando cámaras, leyendo... Y hubo dos o tres factores decisivos, uno de ellos fue que un japonés, cuando apareció el modelo Sony PD-100, envió (en comparación con el mismo modelo que se vende para aficionados, que cuesta tres veces menos), fotos comparativas, y uno las ve en web y dice «esto tiene calidad». Luego reestudié la teoría del vídeo, a ver si se podía aguantar un solo chip o tres chips, y dio definitivamente que la calidad la dan los tres chips, simplemente porque separan los colores. Es imposible con un chip obtener esa calidad.

Simplifiquemos, cuando vi la PD-100 personalmente, vi que era poco notoria, gris; que si no hubiera sido así yo la hubiera pintado de negro o de gris... yo hago esas cosas. Probando las demás cámaras rivales como la XL-1 me dieron cosas divinas pero eran notorias. La XL-1 apoya bien en el hombro, linda calidad, siendo DV simple. También probé la nueva Panasonic y le encontré detalles extraños, como que en aquel momento carecía de Firewire o iLink. Fue bastante complejo porque muy poca gente sabía de esto.

¿De qué año estamos hablando?

Hablamos de 1999, que fue cuando estudié mucho; en el 2000 tomé la decisión final. Era mucha la novedad, quedó claro que había que ir a PAL. Hay que tener en cuenta que en Uruguay tenemos PAL y en Venezuela NTSC. Quedó claro que la calidad PAL era la necesaria.

¿Por la cercanía de los 24fps de cine a los 25 del PAL?

Claro, el NTSC nunca lo da bien, es malo... Entonces, ya tenía la PD-100 en mi mano, y ni un solo amigo la tenía. Vamos a aclarar que uno no es que sea pionero, es que simplemente las cosas... Si tú ves un surtido de cámaras, te confunden los nombres, los números y toda esa porquería, es la verdad. Y nadie te dice la verdad, ni el vendedor ni los colegas, y además necesitas colegas de nivel. Yo necesitaba un detalle fundamental, y es que viene con un gran angular maravilloso. Tiene detalles que sobran, que jamás utilicé, como el zoom digital, que es una porquería... todo eso hay que eliminarlo. Y dije «esta cámara se acerca a lo mío, me molesta que sea tan automática», cuando la fui a comprar. Me gustaron el visor de monitor y el visor de ojo. Y a partir de ahí, apenas la compré en España, abrimos la caja, e hicimos una prueba elemental de tomar una película de muy alta calidad en Beta. Fuimos a un estudio de alta calidad, tomamos una producción comercial de alta calidad proveniente de 35mm. La copiamos con el único cable digital que había entonces en aquel inmenso estudio, directamente a la cámara, y de la cámara lo volvimos a pasar al Beta de muy alta calidad... ¡nos caímos de culo, nos gustó!

Entonces ya, el problema de las cifras, la relación señal/ruido... todo eso se fue a la mierda. Tú miras y dices «¡Ah!»

¿Ni 4:2:2, ni 4:4:4...?

No, eso ya dejó de interesar. El ojo es el que manda. También fui haciendo pruebas elementales caseras, de filmar en la calle y a mi familia... lo que uno hace. Pruebas de diverso tipo y de sonido. Ahí quedó resuelto lo de imagen. Fui a Montevideo, al mejor estudio, y allí, el técnico, que sabe mucho, que es quién después me hizo la postproducción decidió, también, no mirar las cifras. Lo pusimos en el mejor monitor y dijo «Esto está maravilloso». La propia casa Sony dice que esta cámara no da calidad Betacam SP, pero lo que yo veo es lo que vale.

La importancia del sonido

Entonces ahí surge el primer problema, que es el de sonido. Los micrófonos eran muy protuberantes, el propio micrófono era estereo pero omnidireccional. En lugar de comprar un micrófono Sony, caro y grande, sobre todo caro, porque al ser la cámara tan chiquita, requiere comprar la montura cara, de 200$. Porque al ser chiquita los motores meten ruido. El resultado era caro, y yo no me decidí. Entonces fui probando micrófonos al estilo «oreja» de ponerlo cerca y hablar... y terminé comprando un micrófono musical, de los que utiliza cualquier cantante cuando lo tiene en la mano, no inalámbrico. Es un micrófono de 200$ que me gustó por tener un ángulo de captación igual al ángulo de mi gran angular, detalle narrativo fundamental. Es decir, que la gente que está en el medio, muy bien, y a medida que se va hacia afuera, izquierda o derecha, se atenúan. Es fundamental. Es decir «mezcla en campo». Y ese micrófono, después de probarlo, me convenció. Hubo grandes problemas de cómo eliminar el viento, porque Montevideo es una ciudad de viento. Pero como era largo, fui a mi gran amigo, el mejor animador que hay en América Latina, gran artesano, y lo serruchamos a la mitad. Lo estudié a fondo, los micrófonos direccionales necesitan una geometría, que hay que respetar. Entonces lo fui serruchando hasta que quedó a la mitad. El micrófono empezó a dar bien como calidad, aunque había que evitar el viento. Un follón, inventé montones de cosas, que fallaron casi todas, hasta que al final más o menos quedó razonable. Ese era un problema fundamental a resolver, porque no podías ir a rodar a campo, tratando de no ser notorio con un un micrófono más grande que la cámara.

Acostumbrar el ojo: de película a digital

Una vez que se resuelve eso, aparece el siguiente problema, que es cómo resolver los problemas durante el rodaje. Lo primero que yo hacía al volver era grabar sobre VHS, con el código de tiempo que da la cámara apretando un solo botón. Las pruebas fotográficas fueron muy importantes, porque me llevó largo tiempo acostumbrame a esa nueva estética. Veamos, en mi juventud yo había filmado B/N reversible, Regular-8, 16mm B/N, negativo y reversible, sobre todo reversible; después 35mm, 35 B/N, color... Yo soy de las personas que en montaje, en moviola, tuvieron que tolerar la transición del blanco y negro al color. El color era una cosa para Technicolor, después vino Eastman Color. Cuando aparece en 16mm en serio, o en 35mm, aquella transición fue dura porque no te permitían gastar dinero en color. Tú hacías una película de 20 ó 30 minutos en 35mm y te decían «Bueno, puedes copiar un 10% en color y todo lo demás en B/N»... Así que todo eso fue una transición grande. Entonces, uno estaba acostumbrado a fabricar el ojo. Todos los fotógrafos lo saben, si es Kodachrome, Ektachrome o Eastman Color o lo que sea, haces revelar un trozo y te dices «Este es el color, y mi ojo, al mirar por el visor, tiene que intuir cómo va a dar el color final». Entonces, en la PD-100 me acostumbré fácilmente porque es instantáneo, inmediato... acostumbrar al ojo a lo que ve en el visor, y el resultado puesto en un buen monitor. Mi ojo tuvo que entrar largamente en eso, y probar los contraluces, probar cómo da de frente, probar la sensibilidad.

Trabajar en modo Auto

Ahí fue cuando probando y probando llegué a un resultado. Descubrí que los automatismos, tanto de balance de blancos como de regulación de luz me ganaban a mí, y yo antes tenía fama de que en 16mm sin ningún automatismo, podía mover el diafragma intuitivamente, al pasar de luz a sombra, el enfoque rápido, todo eso... me iba bien. Entonces hice todas las pruebas, por ejemplo el balánce de blancos. La pérdida de tiempo de hacer un balance de blancos, por cualquier método que sea, bien apuntando a la fuente de luz o a un papel blanco, siempre los odié. En esta situación de esta película era fundamental apretar el botón y ya. Entonces comparé los balances de blancos que yo intentaba con el método de Sony, y la verdad es que Sony me ganó... Porque en esta estética realista, la PD-100 (y quizá otras cámaras, no quiero negarlo), tiene un método por el que yo apunto hacia la escena que voy a filmar y puede demorar unos diez segundos en realizar un balance correcto. Rara vez sale algo que uno llamaría distorsionado, es algo realista. Lo de las dominancias y todo eso no interesa, es una realidad, sea bajo cualquier luz: sol, fluorescente, filamentosa... lo que venga. Descubrí que no me convenía tocar el balance de blancos jamás, me gustó, en balance de color, me ganó la Sony.

Vamos al otro problema, el de la exposición. Con la cantidad de luz probé muchas cosas, de darle más, de darle menos, de mirar... y ahí si que en los extremos, como el de excesiva luz no hubo problema. Simplemente había un detalle feo, y es que había que ponerle a mano el filtro ND, porque te lo exigen. Pero me costó mucho darme cuenta de que es preferible no meter el filtro ND aunque quemara un poco porque al meter el filtro, en ese momento produce un terrible salto. Si estoy en una escena que no requiere el filtro y cambio o muevo la cámara, es preferible que se queme. En cambio, la inversa no da tan bién, es decir, que si estás en ND y vas hacia lo oscuro puede no dar tan bien. En las muy muy bajas condiciones de luz, cuando la cámara llega sola a su máxima apertura, que es 18 db, lo da excelente, me gusta mucho el pequeño grano que da, la calidad de color es extraordinaria y todas esas pruebas dieron bien.

Entonces el grano en ciertos planos no es buscado...

No, lo que la cámara da como su propio tope es de muy buena calidad, no da grano ninguno. El problema viene cuando la luz baja aún más. Me costó largo tiempo encontrar los métodos, porque yo no quería iluminar, no llevé ni una luz nunca. No quería, por mi tradición fotográfica de Henri Cartier Bresson, todos los grandes fotógrafos de la realidad. La mejor manera que encontré, y me llevó largo tiempo, fue ir corriendo el obturador, que normalmente está a 1/50 y abrir un poquito a 1/25. Si no te da a ojo, entonces le metes un 1/12 y en una escena especialmente oscura de mi película, que es cuando están en la sala de cine, me equivoqué. Entré a esa sala de contrabando, yo no pedí permiso, me escondí la cámara porque no quería pedir permiso... Fue un error, pero dije «acá estoy, hay que apechugar». Entonces tuve que bajar a 1/6, lo cual implica apoyar la cámara mucho, entender algo y depender de la luz que viene reflejada de la pantalla... Pero yo quería respetar ese efecto que en el cine tiene una larga tradición que siempre mienten en cómo simular que una persona está viendo una película. La verdadera simulación es aceptar que hay disminución y ampliación, ¿no?. La luz que va dando en mi plano es el propio de la pantalla, por eso le tuve que poner 1/6, y mucho tiempo después probé de todo, «cómo me da, no me da, qué hago». Probé varias velocidades de cambio por software, aumentando a un 25% más y me dio el resultado que se ve en la pantalla. Me importaba mucho que se vieran detalles como las lagrimitas, fue fundamental que se viera que hay una lágrima.

¿Hubo que tocar de color ese plano en pospo?

De color, y sobre todo de velocidad, subirlo. Y cuando llegamos a Molinare, pedimos reducción de ruido; mejor dicho, el mismo operador lo intentó y no se pudo, y decidimos que la verdad era que es un efecto que el espectador, narrativamente, puede aceptar.

Anteriormente, ya había usted «educado» al espectador con otros planos con grano

Exacto, y el problema del grano es el mismo que con el grano fotográfico. Cuando trabajas con grano, cada grano es distinto, porque en fotografía fílmica es «granulación». Por eso la palabra correcta es «granulación», y no «grano». La forma de los pedacitos de plata son irregulares, por eso se utiliza el sistema de modulación de transferencia para medir, no el de resolución. Ahora, en vídeo empieza a ser distinto y tú lo que tienes que hacer es decir «me gusta o no me gusta», como el pintor. Yo estudié mucha fotografía, fotografía de todo tipo: fija, de cine y de todo. Entonces me metí a ver si me convenía hacer todo más claro, un poco más oscuro y terminé haciendo promedio y me dio muy bien. En la película se ve, de vez en cuando hice una pequeña variación de exposición, jamás de balance. Con un enorme miedo, porque cuando uno estudia la teoría de la fotografía, y lo saben todos los fotógrafos de cine, hay un límite físico que es que la apertura del diafragma máxima nunca puede ser menor de 3mm físicos. Entonces tú tienes que hacer el cálculo, si estás en f11, f16, calcular si es menor de... entonces, no sé cómo hizo la Sony para estar en un sistema tan chiquitito porque el chip de 1/4", su ancho neto son 5mm. Quiere decir que el diafragma, cuando estás en f11, si tú lo calculas es muy chiquito. No sé cómo hicieron para evitar los fenómenos llamados de difracción. Hay difracciones e interferencias, no sé qué hicieron pero dio bien, seguramente corrección electrónica. Esta cámara la dan como la misma de aficionado, que cuesta tres veces menos, pero con componentes de alta calidad. Además es «rugged», robusta. Me dijo un técnico de la Sony que los cabezales están calculados para 3.000 horas. La robustez y calidad de componentes es un detalle fundamental. Yo la cuido igual, pero es de campo.

Controlando y registrando en campo

Al entrar en campo, resueltos casi todos los problemas fotográficos, aparecen problemas de audio que resolví cortando el micrófono, pero allí aparece lo prominente, y por otro lado el sistema de control. El sistema de control normal es ponerse auriculares y yo resolví que no quería ser una araña rodeada de cables, y lo que hacía antes de rodar era verificar que el sonido existía, que sonaba bien y después quitarme los auriculares, para acostumbrar la oreja a la situación e intuir lo que va a salir cuando lo oiga en mi casa. Andar aislado del mundo, que además allí era un poco peligroso, los auriculares aislan... Y además yo no quería juzgar esa calidad de sonido y tenía que confiar. Algunas veces, hubo audios que salieron mal simplemente porque no estaba controlando. El otro detalle del audio es que hice muchas pruebas de controlar el audio manualmente o con AGC (Automatic Gain Control), me decidí por el AGC. Las pruebas que se suelen hacer con el AGC son poner la cámara en un lugar silencioso, encenderla y esperar largo rato y luego hablar bruscamente y hacer un gran ruido, para ver qué es lo que hace. Es el famoso problema de los grabadores malos de cassette, que se hunde todo el sonido. Comprobé que el AGC de la cámara estaba muy bien, que comprendía perfectamente lo que era ruido transitorio y lo que era silencio. En definitiva, terminé todo en AGC, porque no tenía tiempo para ir regulando el volumen durante la grabación. Finalmente los problemas de audio se resumieron en el viento y la posible mala dicción de los protagonistas, problema de muy difícil solución. En Iberoamérica nos cuesta entender a los grandes actores españoles, esa es la verdad. Con grandes sonidistas incluso, es un problema de la manera de pronunciar el idioma, y hay gente que habla mal simplemente y los sonidistas se vuelven locos, «¿cómo mejoro a un actor que habla mal?». Pero bueno, yo trabajé todo eso hasta donde se podía.

El conjunto y la narrativa: tecnología justificada

Ahí apareció un problema estético, «¿qué hago con el audio?». Desde el principio dije que iba a hacer un audio entre realista e hiperrealista, lo cual implicaba no intervenir en lo que ahora es habitual en el mundo, que en cualquier lugar al que vayas, no sólo hay ruido ambiental de gente, ruido de motores, ruido de lluvia o de lo que sea, sino que en todo el mundo deja en todas las casas una radio encendida, o un televisor, o un disco, o cantan. Eso lo jugué a fondo, tratando de mirar y al mismo tiempo oir, y no regulando a la gente. No diciéndoles que bajasen el volúmen jamás. Todo eso se resuelve por una decisión de carácter narrativo que es dónde situar la cámara, el punto de vista, que es el punto central de todo rodaje. Dónde ubicarla para que la acción transcurra bien, para todo suene además bien. Y además por algo que a mí siempre me gustó mucho como espectador y como cineasta, dividir la acción por lo menos en dos planos. Es decir, ocurre algo cerca y algo lejos. Acciones a veces concomitantes o contradictorias. No es una situación plana teatral, sino que es una situación compleja, «hay algo aquí adelante y hay algo allá atrás». En muchas escenas lo conseguí.

Traté de evitar utilizar mucho el gran angular, para lo cual prescindí totalmente del «Steadyshot», que evita la vibración, no lo recomiendan con el gran angular. Produce un balanceo así, como de barco. Técnicamente no sé porqué pero así es. Una vez hice un cortometraje entero con steadyshot, primero para probar la cámara, era la única manera. Ahí se descubrieron esos problemas de micrófono, de steadyshot, de edición. Entonces decidimos nunca más aplicarlo, etc... aprendí mucho. Sumando todos esos detalles al final lo que a uno le queda es que lo único que tiene que hacer es apretar un botón y ubicarse correctamente, el punto de vista es lo que manda.

Soportes magnéticos, fallaban

Pero allí apareció un problema que ya estaba escrito, el del material virgen. Primero Sony me vendía a unos 30 euros cada cassette miniDVCAM. En mi presupuesto escribí que era un poco caro, pero que lo podía pagar. Cuando empecé a hacer pruebas, que en esa época acababa de nacer el formato, costaba trabajo conseguirlos, en Madrid o en Berlín o en cualquier lugar del mundo. En Uruguay ni había. Empecé a bajar el costo cuando aparecieron los primeros miniDV a 15 euros, luego bajaron a 10. Dije «qué oportunidad, qué baratos»; entonces empecé a comprar por docenas y hacer pruebas. El primer consejo que me dio mi asesor argentino que está en Caracas era que se descubrió que al cambiar de marca de cassettes podía ensuciarse el cabezal. Por esto en campo tenía que llevar permanentemente el limpiador, pero pocas veces limpié porque después de probar dije que iba a usar siempre el mismo material. Me daban bien, pero si en algún momento me aparecía el mensaje de limpiar cabezales en la cámara, y como no tenía tiempo, apagaba la cámara, volver a encenderla de inmediato y seguir adelante. Con ello perdía el código de tiempo, se ponía a cero. Simplemente había que recordarlo en el momento de la edición y ya está.

Inconveniencias del vídeo

Aparece un pequeño inconveniente de todos los sistemas de vídeo, que me irritó mucho: son todos muy lentos. Yo estaba acostumbrado a los sistemas como Eclair o Arri-BL, de cine. Con estas cámaras, aunque las tengas apagadas, si ves algo aprietas el botón y en menos de medio segundo la acción está a «full», completo.

Edición y almacenamiento

No había realmente sistemas de edición para el DV. Yo estaba simplemente haciendo copias sobre VHS de mi película. Las famosas tarjetas analógicas-digitales nunca me gustaron, las odio. Pedí presupuesto en todos lados de sistemas basados en Windows, hasta que apareció la iMac, también fue nuevo durante el rodaje. Simplemente fui al vendedor, enchufé mi cámara, entró directamente y dije «la compro», y me la llevé. La iMac fue la solución. Realmente fue un gran invento, porque tenía ya lo que quería, enchufar en el Firewire y se terminó. A partir de ahí surgió otro problema, dónde almacenar. Tiempo después aparecieron por fin los discos externos Firewire de 80 GB de capacidad. Compré tres, es decir 240 GB. Yo quería aplicar un método que mucha gente no entendía. Muchos editores no entienden, me dicen «Tú vas editando secuencias...», y yo digo «Yo no edito secuencias, lo que edito yo es una película entera». Yo quiero tener la película entera en alta calidad. La quiero tener porque yo miro continuamente la película entera, y después reedito cada secuencia. Fui comprando discos y la verdad es que hace poco me fallaron los tres, así que en el futuro tendré que repensar todo el sistema... pero funcionó.

Final Cut Pro

Vino la primera versión de Final Cut, y luego llegó otra y otra y pudimos terminar en la versión 3, que ha mejorado mucho. Con ella se pudo hacer un poquito de corrección de color, bastante bien hecho; pero además se hizo bastante más ergonómica, más funcional. Para mí el progreso fue enorme, tanto que mi postproductor que es un hombre muy de Avid dijo que había mejorado mucho Final Cut y lo usó él mismo. Con la ventaja famosa de que al trabajar en digital se termina el problema «offline-online». Yo como editor lo único que hice en este trabajo fue estructurar, no hice efectos. Corte y traslado, corte y traslado... estructuración. Me gusto mucho no tener que hacer lista de EDL's, offline... nada de eso. Simplemente le dije «Aquí está la iMac con los discos duros. Llévatelo y prosigue tu trabajo de postproducción». Eso me encanta, me parece que es uno de los grandes progresos que puede haber en la historia de la edición. Realmente eso es fantástico del digital.

Final Cut permite obtener lo que se denomina «Superwhite», el superblanco, que lo dan los digitales. Eso fue una larga discusión y estudio, porque si la cámara me da blancos muy detallados (que es uno de los factores fotográficos que más me animaron a comprar la PD-100) había que conservarlos. El blanco es decisivo para la calidad fotográfica y los blancos de la PD-100 eran extraordinarios, pero eran en superwhite, que supera las normas de Broadcast, (*emisión). Por lo tanto hay que activar superwhite en FCP, porque en mis exhibiciones directas en DVCAM está todo, y porque al emitir en un canal, sencillamente se ajustará. Yo creo que para exhibiciones directas siempre hay que activarlo, ya que puedes desactivarlo después.

Postproducción de sonido

Con Final Cut puedes ver todo, acceder a todo. Por supuesto que el audio hubo que terminarlo en Protools. Yo ni me metí en eso, y fue muy mejorado y quedé muy contento. Mi editor me había pedido que registrase muchos sonidos de ambiente con la cámara, pero no podía, no tenía tiempo para dedicarme a ello. No hice ambiente, pero al grabar aprendí algo que no había hecho nunca, y fue no parar la grabación de un plano a otro, al cambiar de punto de vista, y dejaba la cámara grabando, gastando enormes cantidades de material. Así además había ambientes para la postproducción de sonido.

Vídeo entrelazado a 4:3

Si voy a cine y meto la proporción 16:9 de la cámara, es falsa. La proporción real de cine es por recorte, lo cual quiere decir que te tienes que gastar 900$ en una lente anamórfica, que es protuberante, que es enorme, y yo no tenía ganas. Dije «La voy a hacer en sistema normal, entrelazado de vídeo, no en progresivo». Si lo hubiera hecho en progresivo luego hubiera tenido un follón para proyecciones directas desde DVCAM. Lo probé y... son largas discusiones. Yo creo que el progresivo se puede aplicar cuando termina exclusivamente en fílmico, y del fílmico sacar los vídeos. Es discutible lo que yo digo, todavía no está decidido a fondo... En este momento quedan pendientes muchas cosas, como hacer un verdadero 16:9. Las cámaras que tienen 16:9 real son muy caras. Yo intenté desarmar el visor de ojo para meter unas rayitas dentro que me indicaran las proporciones del 1:1.85 de cine. Utilicé destornilladores de precisión suizos, empecé a desarmar y me asusté mucho, volví a armar... no pude llegar. Entonces encontré un método por el cual tengo una referencia, el propio Timecode impreso en la pantalla, arriba, que me da una referencia casi exacta de lo que es el 1:1.85. Intenté que nada sobrepasase esa referencia, dejando ese aire bien captado, de tal modo que cuando yo proyecte mi película en 1:1.85 prácticamente todo va a salir bien. Lo importante en un encuadre es lo de arriba, y no lo de abajo; la cabeza más que los pies. Cuando la proyecte le diré al proyeccionista que la ponga un poquito más abajo y ya está. Porque encuadré de las dos maneras, 4:3 y 1:1.85... espero no haberme equivocado. La pasé más de una vez en el televisor de mi casa a cámara rápida, tapando arriba y abajo con cinta negra con mucha precisión y dije «esto está perfecto». La discusión en Molinare era a ver si se ponía bandas negras y yo dije que no. Se va a poder proyectar en cine en 1:1.375, que es la proporción de cine, y en la 1:1.66 y 1:1.85, estoy contento.

Magnetoscopio

En Final Cut, mi postproductor pudo hacer correcciones muy delicadas de color. Y yo, como soy poco efectista, algún encadenado, algún letrero, poco más. Hay alrededor de tres relentizaciones. Uno lo hice por probar, incluso se puede relentizar progresivamente. Eso Final Cut lo hace bien, funciona bien. El siguiente hallazgo (después de encontrar los primeros discos externos Firewire, que me permitía preservar mi cámara, que estaba utilizando como reproductor también) fue el magnetoscopio Sony DSR-11. Ese me salvó la vida, me ahorré gastarme los 400$ que me hubiera costado una salida a monitor desde la iMac. El DSR-11 tiene todo: salida hacia cualquier televisor, Firewire, grabar y leer NTSC y PAL... Resultó el elemento más importante del mundo, porque me permitió digitalizar todo lo que vino desde material analógico antiguo con buena calidad. Tiene un remoto muy exacto y los masters salieron del ordenador al DSR-11. Es el aparato estrella mío, que me sirve para todo y lo utilizan mis amigos. Se le reprocha que no tiene indicadores de nivel de audio ni de vídeo pero todo el resultado dio extraordinario.

¿Sus próximos proyectos?

Me voy a quedar con Final Cut, y la próxima película que haré, si tengo que vivir entre Berlín y Montevideo, quizá invente métodos, que no son invenciones, simplemente comprar un ordenador más barato, trabajar en baja calidad, y después enviar el proyecto entero junto con los originales a Montevideo o Madrid y luego hacer la postproducción completa. Creo que esa podría llegar a ser una solución, trabajar con sistemas de aficionado, con la iMac más barata... porque me enamoré de Mac. Veinte años en sistemas Unix, porque yo empecé con CPM, que era el primer sistema al alcance de todo el mundo. Primero apareció la Apple II, luego CPM, luego MS-DOS... soy veterano. Ahora estoy en una portatil Mac dos generaciones atrasada, y una iMac una generación atrasada. Entre las dos me desempeño y quedé muy contento.

Le puedo hablar de varios amigos que trabajan con un Titanium G4 editando sin problemas, incluso en alta calidad

Si yo tuviera dinero, me pasaría eso. Pero además me cansé. Yo tuve un mínimo de dos Laptop en mi vida y me cansé. Son muy caros, no puedes ampliar, se roban mucho, se rompen mucho y el precio de reventa es bajo. Su economía es muy mala. Me encantaría poder usarlos pero la economía manda. Me conformaré con tener un ordenador barato en Berlín y otro en Montevideo e ir intercambiando físicamente, por la comodidad. El problema mío es dinerario...

A ver si hay suerte y a raíz de este trabajo...

No he vendido nada y espero obtener algún dinero. Yo he obtenido todo por subsidios. Primero el subsidio de la Fona, de 40.000$, después el Príncipe Claus, 30.000 Euros y otros 12.000 que se quedaron en unos 8.000 de la Universidad, debido a la declinación de la moneda uruguaya.

...Que hablando de una producción en DV, es una ayuda muy buena...

Sí, el documental europeo normal cuesta mucho más que eso, el profesional normal. En mi caso, mi plan era hacer una película de 40.000 y podía hacerlo. La ventaja de los subsidios es que pude quedarme con algún dinerillo para mis propios honorarios... hay que vivir. Quedé contengo con ese dinero. Pude pagar más de 8.000 dólares a mis protagonistas. Si llego a ganar mucho dinero les daré más, pero son insaciables porque son muy pobres. Siempre piden y piden y piden porque siempre están mal. Pude pagar profesionalmente las cosas, ahora estoy mal de dinero porque estoy terminando y las cosas son caras. Tuve la desgracia de que en ningún lado me dieron ninguna contribución para poder ampliar, pedí en tres lados, como mínimo. Por eso vine a Málaga, intentando ganar los 12.000 euros que ganó «Raimundo» de mi colega; bien, muy noble, pero me hubiera gustado ganarlos yo. Con los docemil ya iba como un rey, bueno, no como un rey, algo apretado de dinero.

Lo próximo que haga, insistiré en el formato DVCAM, salvo que aparezca algo mejor. Respeto tanto la PD-100 que cuando surge algo la reparo, pago la reparación. La mantengo pagando el seguro todos los años, porque todavía no encontré la cámara sustitutiva. Lo del software no me preocupa porque eso seguirá avanzando y no es un problema estratégico. Estratégico es ver qué hago con la cámara, y la cámara la mejoré con un micrófono alemán, marca Ambient, aunque todavía no resolví todos los problemas de ruiditos de la cámara. Creo que es un gran progreso. Ahora, después de la crisis financiera y económica de Uruguay, no tengo dinero para vender esta cámara y comprarme otra, no he encontrado sustitutivo técnicamente a la PD-100, así que seguiré con ella.

PD-100 sin óptica intercambiable

Yo me había fascinado con la intercambiabilidad de óptica de la Canon XL-1, pero es falsa, está equivocado el sistema. La estudié y la miré mucho. Es mentira porque por cada lente que pongas de fotografía, para que te dé el ángulo equivalente, tienes que multiplicar por 7'2. Lo cual quiere decir que si tú tomas un gran angular de fotografía, por ejemplo un 20mm, que ya es mucho, es un gran angular extremo, multiplicando te da un 140mm, que es un Tele muy cerrado. Es decir, que es una mentira, porque a mí lo único que me interesa de la intercambiabilidad son los granangulares. De Tele estoy sobrado, si yo tengo 12 aumentos ópticos en la PD-100... jamás utilizo el 12x, nunca paso del 6x. Es una mentira de Canon, a menos que me empiecen a fabricar lentes especiales que me den el ángulo maravilloso que me da directamente el accesorio Sony.

Hay planos en su película con ojo de pez

Ese ojo de pez lo compré en una especie de rastro que tenemos en Montevideo baratísimo, casi nulo, y no me animé a usarlo. Lo probé y daba horrible. Lo puse encima de la lente con un adaptador. Lo probé con varias escenas hasta que al final filmé la escena del cumpleaños con esa lente y me gustó. Pero tiene problemas de excesivos reflejos internos, además tiene un recorte, lo que llaman viñeteado alrededor, que desaparece en la emisión en televisión doméstica. Cuando lo exhibes en proyector de vídeo se ve, en televisión no hay problema. Y en el 35mm se va a ver, aunque la mascarilla de proyección recorta en torno a un 5% de cada lado. Entonces vamos a verlo, habrá que ver lo que ha hecho Molinare... Yo digo que cualquier persona que quiera jugar, tiene por 80 a 140 euros, ojos de pescado de todo tipo. Y los adapta y los prueba, hay que probar... La próxima vez igual llevo un surtido de ojos de pescado de todo tipo.

¿Cuál ha sido el papel de Molinare en este proyecto?

Me ha sorprendido la profesionalización y el alto equipamiento. Mucho, más de lo que yo creía. Me da la impresión de que están trabajando muy bien. Por ejemplo, al entrar al Telecine para hacer mis correcciones, mis sugerencias ya las había realizado el operador, Javier, que es muy buena gente. Discutimos por escrito con Molinare si entregábamos una versión DVCAM corregida de color o no corregida en Final Cut. Finalmente se decidió entregar la ya corregida por nosotros en Final Cut, y se le agregaron correcciones en la consola de telecinado. Para disminuir ruidos de imagen, para bajar contrastes por zonas, como los blancos excesivos, para hacer correcciones parciales de color por zonas. Eso es maravilloso, en Final Cut tú puedes corregir una imagen completa, pero no puedes hacer un etalonaje parcial. Y para hacer corrección dinámica, que eso me parece apasionante, porque cuando tú trabajas en automático en campo la lente se cierra y se abre, todo eso que molesta. Corriges a lo largo de un cierto período para que todo se asemeje bastante, eso es la corrección dinámica. No se puede hacer nunca a la perfección, pero quedó bastante bien, me gustó mucho. Cuando se intentó quitar ruido interno, granulación. En algunos casos se dejó como estaba porque las pruebas daban inferior. Sin embargo en otros se levantó el pedestal, el nivel, para que entrara dentro del internegativo. En el escaneo hacia fílmico se utiliza internegativo, que lo calculan para subirlo un poco, bajarlo un poco, etc. para que encaje. La idea final, lo ideal, es que ese internegativo produzca copias que no necesiten ya ningún etalonaje. La copia tiene que quedar perfecta. Eso es una ambición muy grande porque yo he trabajado bastante en fotografía y trabajas con el etalonador normalmente en cine y hay que corregir. No hay fotómetro en el mundo que dé la precisión y todo fotógrafo es creativo y sube, baja, sube, baja... Pero yo sospecho que va a salir muy bien la copia final. La idea además es que en ese proceso correctivo, el resultado previo al escaneo sea un Digibeta, que es lo que está mandando en el mundo como norma. Quiero decir que me quedo con un máster Digibeta, al que no hay más que agregarle el sonido sincronizado para poder enviarlo en el caso que se exhiba en televisiones del mundo. Lo único que hay que hacer es coger esa imagen ya corregida de buena calidad en lugar de volver a corregir el negativo final y volver a telecinarlo. El Digibeta ya está. Es una ventaja, es bonito, porque nuestro campo es al mismo tiempo la sala, la televisión y el vídeo en VHS y DVD.

El resultado es un intermedio entre vídeo y cine

Exacto. Cuando tú trabajas en negativo, ante la duda lo mejor es quemar un poquito, después te lo resuelve el laboratorio. En el vídeo es más delicado y lo que hay que hacer es no quemar las luces, ante la duda oscurecer un poco. Es parecido a la diapositiva en fotografía, no perder detalle en las altas luces, porque lo de las sombras se verá. Recuerdo que cuando yo hacía cámara en vídeo, tenía mi fotómetro. Más aún, los buenos directores de fotografía que yo he conocido están trabajando con vectorscopio portátil y obtienen resultados muy buenos. Sin fotómetro no sé cómo se puede trabajar. Una cosa que jamás usé en mi cámara fueron las famosas Zebras, porque no tenía sentido, siempre me iba a dar error. Yo no iluminaba, de manera que lo único que se puede hacer es ser buen fotógrafo y ubicar bien el punto de vista, que es lo que manda.

¿Qué opina usted de la democratización del vídeo?

En mi humilde opinión, por un lado conducirá a algo noble como son las televisiones comunitarias, locales... es obvio; a la utilización por parte de grupos filosóficos, políticos, religiosos o de lo que sea, de este sistema para difusión interna o externa. Pero de todas maneras el proceso inevitable es que todo va a estar, como siempre, en manos de profesionales, artistas, técnicos que se necesitan; nosotros no somos prescindibles. La inundación de cosas que pueden venir sin arte, sin técnica y sin profesión no sirve. Evidentemente se está produciendo ahora mucha cantidad, y es de esperar un aumento de la calidad como está demostrado en muchas películas que se han hecho en digital. Por supuesto creo que no va a sustituir al cine normal de 35mm, Panavisión, Super35mm y todo eso, pero no es el sentido, el sentido yo creo (por lo menos en mi pensamiento) es que lo que yo quiero es la intimidad. Esa es mi propuesta, no estoy pensando en utilizar el digital para poner a siete actores actuando, aunque puede ser. Para eso, si además hay decorados, director de fotografía, un montón de luces y demás, para eso ponemos una cámara 16mm y vamos directos a eso, ¿verdad?. El digital, el próximo paso será, creo yo, que se empiece a abaratar todo el proceso. Me gustaría que lo que se está inventando de mucha mayor calidad, tipo Digibeta y todo eso, quede a nuestro alcance.

©Pedro Alvera, pedro.alvera@macuarium.com

(Todas las imágenes pertenecen a la película «Aparte», y son propiedad de Mario Handler)

----------------------------------------

Agradecimientos especiales a:

Juan Ángel Urruzola, Uruguay

Mar Barberó, Casa de América

----------------------------------------

Entrevistas a otros realizadores de documental:

José Antonio Zorrilla

Mario Ágreda, el Indio


Comenta el artículo en los Foros

Vuelta al Menú

 

 

 

Artículos en esta misma edición:

11-5-2003 Entrevista a Mario Handler, prestigioso cineasta uruguayo - Recientemente ha realizado la película «Aparte», en DV y con Final Cut Pro
10-5-2003 Trazos patrocina la presentación de Maya 5.0 - Nota de prensa
10-5-2003 Nueva videocámara VDR- M30K - Grabación directa de vídeo en un DVD
8-5-2003 Apple y los premios - FileMaker y PowerSchool reciben premios, y el Xserve y el iMac G4 buscan otros.
8-5-2003 Sale el tercer número de GUMBits - Nota de prensa
8-5-2003 Los GUMs en Nueva York - Notas del programa previsto para la Expo
8-5-2003 Nuevos periféricos con el nuevo eMac - Apple renueva su gama básica, y no sólo en los procesadores
5-5-2003 Punto-Es - Columnas del Tercer Milenio, por Paco Román
5-5-2003 La música del éxito (de momento) - Apple vende un millón de canciones en una semana
5-5-2003 Opera no se rinde - Declaraciones exclusivas del fabricante del navegador multiplataforma
5-5-2003 Emagic Logic Platinum 6.1 - Destripando los interiores de la última revisión del secuenciador favorito de Apple


Otros artículos recientes