Jump to content

RedOne, Quantel, Scratch, R3D a tiempo real y otras hierbas


Recommended Posts

Tema separado:

Birux: Voy a crearos un nuevo tema con vuestro tema, para no desvirtuar éste (Sparta).

Separado de aqui: http://www.macuarium.com/foro/index.php?showtopic=290318

 

____________________________________

 

 

Buenos días

 

¿Se me permite hacer unos comentarios?

 

scratch con material de red one. Lo mas parecido a photoshop a 25fps
exacto. Permite mover el raw directamente.

 

Pol, por lo que tengo entendido, directamente desde el raw 'mueve' sólo 2K (PD: Ya sé que para tí es suficiente...) y sólo en unas determinadas máquinas. ¿Es cierto?

 

Y otra pregunta: si 'mueve' en tiempo real el .r3d y realiza correcciones en Tiempo real ¿Porque hay que renderizar para volcar a cinta? ¿Es que lo que se vé -monitorizado- no se puede volcar?

 

Nada mejor para esta tarea que utilizar Scratch, el único sistema de etalonaje y conformado que a día de hoy abre los archivos R3D de RED, lo que permite etalonar desde el archivo RAW nativamente sin necesidad de pasar por una conversión a otro formato.

RedLab

 

"único sistema de etalonaje y conformado que a día de hoy abre los archivos R3D de RED" ..... esto es muy antigüo... Hoy -y desde hace ya mucho tiempo... en concreto desde Sep'08- ya lo abren de forma nativa muchos sistemas, desde los más económicos hasta los más caros.

 

Venga... un saludo

 

Zapardiel_Quantel

Edited by Birux
Link to post
Share on other sites
  • Replies 58
  • Created
  • Last Reply

Top Posters In This Topic

Pol, por lo que tengo entendido, directamente desde el raw 'mueve' sólo 2K (PD: Ya sé que para tí es suficiente...) y sólo en unas determinadas máquinas. ¿Es cierto?

 

Pues sinceramente, no lo he probado. Nadie trabaja a 4k... pero lo pruebo esta misma semana y te cuento.

 

Y otra pregunta: si 'mueve' en tiempo real el .r3d y realiza correcciones en Tiempo real ¿Porque hay que renderizar para volcar a cinta? ¿Es que lo que se vé -monitorizado- no se puede volcar?

 

El r3d lo guarda con las correcciones al vuelo... para conversiones, evidentemente que hay que renderizar, pero vamos... otras marcas renderizan en background o necesitan conversiones a sus sistemas propietarios...

 

"único sistema de etalonaje y conformado que a día de hoy abre los archivos R3D de RED" ..... esto es muy antigüo... Hoy -y desde hace ya mucho tiempo... en concreto desde Sep'08- ya lo abren de forma nativa muchos sistemas, desde los más económicos hasta los más caros.

 

Via SDK... con limitaciones. Abrir no significa trabajar en condiciones...

Link to post
Share on other sites
Pol, por lo que tengo entendido, directamente desde el raw 'mueve' sólo 2K (PD: Ya sé que para tí es suficiente...) y sólo en unas determinadas máquinas. ¿Es cierto?

 

Pues sinceramente, no lo he probado. Nadie trabaja a 4k... pero lo pruebo esta misma semana y te cuento.

 

Y otra pregunta: si 'mueve' en tiempo real el .r3d y realiza correcciones en Tiempo real ¿Porque hay que renderizar para volcar a cinta? ¿Es que lo que se vé -monitorizado- no se puede volcar?

 

El r3d lo guarda con las correcciones al vuelo... para conversiones, evidentemente que hay que renderizar, pero vamos... otras marcas renderizan en background o necesitan conversiones a sus sistemas propietarios...

 

"único sistema de etalonaje y conformado que a día de hoy abre los archivos R3D de RED" ..... esto es muy antigüo... Hoy -y desde hace ya mucho tiempo... en concreto desde Sep'08- ya lo abren de forma nativa muchos sistemas, desde los más económicos hasta los más caros.

 

Via SDK... con limitaciones. Abrir no significa trabajar en condiciones...

 

 

Pol... te estás liando... y además tu solito.

 

¿Como es que el Scratch 'guarda' el r3d con las correcciones al vuelo? ¿es que el scratch puede grabar ficheros .r3d? o, ¿guarda un solo fichero de 'metadato' asociado -con su linea de tiempos- al fichero original .r3d? Nota: TODOS, y recalco lo de todos, los fabricantes tenemos que guardar en disco un fichero (llámalo propietario o DPX) una vez abierto el r3d... o me equivoco

 

De todas formas yo no he hablado de conversiones. Se supone que estamos trabajando con una salida HD SDI para alimentar al monitor/proyector ¿no?, pues si se puede hacer una monitorización en tiempo real, esa misma señal que va al monitor/proyector se podría conectar al VTR... ¿me equivoco?... y ¿porqué no se puede? o ¿si que se puede?

 

Lo de las limitaciones por usar el SDK... ¿estas seguro? ¿a que limitaciones te refieres?. Te lo digo porque hay muchos fabricantes que están sacando productos de diferente rango con prestaciones muy sorprendentes... ¡y no son siempre/solo Quantel!

 

Huy Pol, a ver si es que tú tienes algún interes 'especial' por este sistema y no nos lo has dicho. (El mio está claro y meridiano desde el principio ¿no? :lol: :lol: :lol: )

 

Saludos

 

Zapardiel_Quantel

Link to post
Share on other sites
¿Como es que el Scratch 'guarda' el r3d con las correcciones al vuelo? ¿es que el scratch puede grabar ficheros .r3d? o, ¿guarda un solo fichero de 'metadato' asociado -con su linea de tiempos- al fichero original .r3d? Nota: TODOS, y recalco lo de todos, los fabricantes tenemos que guardar en disco un fichero (llámalo propietario o DPX) una vez abierto el r3d... o me equivoco

 

Basicamente, vuestro sistema hace un volcaje a disco duro en formato propietario, yo en la ingesta a scratch, a menos que lo haga oculto en background... no lo hace. Igual que el final cut puede abrir haciendo un debayering al vuelo los quicktime de la red... como premiere, y creo que avid tambien.

Al final o grabas la metadata, o renderizas a otro formato, tienes ambas opciones. Vuestro sistema no es destructivo de base? , ya que una vez aplicados los settings de importación se queda con eso?

 

De todas formas yo no he hablado de conversiones. Se supone que estamos trabajando con una salida HD SDI para alimentar al monitor/proyector ¿no?, pues si se puede hacer una monitorización en tiempo real, esa misma señal que va al monitor/proyector se podría conectar al VTR... ¿me equivoco?... y ¿porqué no se puede? o ¿si que se puede?

 

El proximo dia que vaya a sala lo compruebo.

Como todo lo que he hecho hasta el momento con scratch ha ido directo a 35mm, pues tampoco te lo se decir. En todo caso, si que se puede grabar una salida en real time via HDSDI, pero yo no lo he probado.

Tampoco tengo mucha experiencia con el sistema aun, pero hasta el momento, tampoco he tenido nunca este problema, aunque tambien es cierto que lo bueno de ser dire de foto, es que no opero la maquina, sino que pido lo que necesito, y que yo sepa, se nos entrega todo al momento. Incluidas copias en video.

 

Lo de las limitaciones por usar el SDK... ¿estas seguro? ¿a que limitaciones te refieres?. Te lo digo porque hay muchos fabricantes que están sacando productos de diferente rango con prestaciones muy sorprendentes... ¡y no son siempre/solo Quantel!

 

a las limitaciones que suponen no poder cambiar los settings del raw original desde etalonaje. Procesar una imagen ya procesada hace que se pierda información. Si, incluso a dpx 16bit. Pruebas tienes de sobras para verlo y probar.

 

Huy Pol, a ver si es que tú tienes algún interes 'especial' por este sistema y no nos lo has dicho. (El mio está claro y meridiano desde el principio ¿no? :lol: :lol: :lol: )

 

De mis ultimos 5 trabajos, uno se ha ido al color (rodado con una varicam), otro se ha ido al scratch (rodado con red one), 2 al nucoda (rodados con arri D21 y panasonic 3000 en avc intra) y uno a vuestro Pablo (rodado con

phantom), ah! y todos en offline con final cut ;) . Ya ves, que interes en maquinas...

Edited by polispol
Link to post
Share on other sites

Voy a contestar a mi amigo Pol por la sorpresa que me causa leer su comentario a cerca de su discrepencia con los resultados que publicamos de nuestro test con la RedOne. No deja de ser curioso que el comentario se remita tan solo a una breve conversación por teléfono y que no aporte nada más que su discrepancia. Nosotros hemos trabajado más de dos meses en realizar el test con mucha gente involucrada y lo que más me gustaría es que los comentarios al mismo fueran al menos igual de rigurosos y no simple anotaciones en los foros, sobre todo para saber en que nos hemos equivocado. Hemos realizado las pruebas de latitud de cuatro formas distintas, con el bodegón, las modelos en el plato con las multiexposiciones, en los exteriores y finalmente con el programa Imatest y con todo ello llegamos a las conclusiones que exponemos, considerando para ello, el ruido en las sombras, el nivel de detalle en las mismas, el recorte en el blanco asi como la pérdida de textura en los mismos. Por alguna razón que se me escapa existe para muchos una relación sentimental (y para otros empresarial) con esta cámara, que creo a veces impide una mirada más propia de un directore de fotografía. No deja de sorprenderme que algunos de los entusiastas de esta cámara no hagan públicas sus pruebas y que lo dejen para cuando tengan tiempo y mientras escriben que no estan de acuerdo, pero ¿que es estar de acuerdo, por ejemplo, con los resultados obtenidos por Imatest, o con un fotograma donde el blanco esta recortado?. En fin, que todos los que hemos realizado el test agradeceriamos más datos técnicos(metodogía, mediciones, etc) y menos opiniones, más o menos interesadas.

 

Con mucho cariño para Pol

 

Alfonso Parra AEC

www.alfonsoparra.com

Link to post
Share on other sites
Voy a contestar a mi amigo Pol por la sorpresa que me causa leer su comentario a cerca de su discrepencia con los resultados que publicamos de nuestro test con la RedOne. No deja de ser curioso que el comentario se remita tan solo a una breve conversación por teléfono y que no aporte nada más que su discrepancia. Nosotros hemos trabajado más de dos meses en realizar el test con mucha gente involucrada y lo que más me gustaría es que los comentarios al mismo fueran al menos igual de rigurosos y no simple anotaciones en los foros, sobre todo para saber en que nos hemos equivocado. Hemos realizado las pruebas de latitud de cuatro formas distintas, con el bodegón, las modelos en el plato con las multiexposiciones, en los exteriores y finalmente con el programa Imatest y con todo ello llegamos a las conclusiones que exponemos, considerando para ello, el ruido en las sombras, el nivel de detalle en las mismas, el recorte en el blanco asi como la pérdida de textura en los mismos. Por alguna razón que se me escapa existe para muchos una relación sentimental (y para otros empresarial) con esta cámara, que creo a veces impide una mirada más propia de un directore de fotografía. No deja de sorprenderme que algunos de los entusiastas de esta cámara no hagan públicas sus pruebas y que lo dejen para cuando tengan tiempo y mientras escriben que no estan de acuerdo, pero ¿que es estar de acuerdo, por ejemplo, con los resultados obtenidos por Imatest, o con un fotograma donde el blanco esta recortado?. En fin, que todos los que hemos realizado el test agradeceriamos más datos técnicos(metodogía, mediciones, etc) y menos opiniones, más o menos interesadas.

 

Con mucho cariño para Pol

 

Alfonso Parra AEC

www.alfonsoparra.com

 

Alfonso, es cierto que lo hablamos por telefono, y quedamos en que desarrollaria mis propias pruebas (que no he hecho aun) para probarlo. Lamentablemente (o afortunadamente, segun se mire), mis ultimos trabajos han sido con todos los equipos de la competencia, asi que mi sentimentalisto hacia este equipo, es bastante limitado.

Lo que si es cierto, que los datos que te dan, no coinciden con mis valoraciones, ni las de Gabi Garcia, y por lo que me han comentado con las de Tomas Pladevall, asi como tampoco coinciden con las de otros dires de foto a nivel internacional. Yo sigo creyendo que en algun proceso de postproducción os equivocasteis, o que nuestras consideraciones son diferentes.

De todas maneras, tambien esperabamos a disponer de un scratch (ahora viene zapardiel a rasgarse las vestiduras) para poder hacer el test en condiciones, espero en menos de 1 mes poder hacerlo, y si quieres venir a participar o a valorarlo sobre proyeccion cuando lo acabemos, ya sabes que tienes casa y plato ;)

Link to post
Share on other sites
Basicamente, vuestro sistema hace un volcaje a disco duro en formato propietario, yo en la ingesta a scratch, a menos que lo haga oculto en background... no lo hace

 

Vale... el r3d NO es un formato propietario, pero el 'volcado' a disco que se hace en la importación SI que lo es. Entiendo....

 

Al final o grabas la metadata, o renderizas a otro formato, tienes ambas opciones

 

Esto si que no lo entiendo. Grabar la metadata ocuparía mucho menos espacio en disco, entonces ¿porque habría que renderizar a otro formato?

 

Vuestro sistema no es destructivo de base? , ya que una vez aplicados los settings de importación se queda con eso?

 

Pues va a ser que no. El r3d está siempre disponible y si necesitas rectificar los parámetros de importación, lo haces y punto. (Nota: y si necesitas hacer una estabilización y/o un tracking y/o una composición y/o añadir un texto, tambien lo puedes hacer sin tener que cambiar de aplicación ;) )

 

aunque tambien es cierto que lo bueno de ser dire de foto, es que no opero la maquina, sino que pido lo que necesito, y que yo sepa, se nos entrega todo al momento. Incluidas copias en video

 

Puesto así, Pol, sí que es bueno ser dire de foto :lol: :lol:

 

a las limitaciones que suponen no poder cambiar los settings del raw original desde etalonaje. Procesar una imagen ya procesada hace que se pierda información. Si, incluso a dpx 16bit. Pruebas tienes de sobras para verlo y probar.

 

Estas equivocado en esto. Ay, si hubieras venido a las presentaciones que hicimos en Madrid sobre el flujo con RED One lo hubieras comprobado por tí mismo. (Por cierto, gracias por haberlo publicado en el blog del Digitea)

 

 

tambien esperabamos a disponer de un scratch (ahora viene zapardiel a rasgarse las vestiduras)

 

Que va!!, mira, a Alfonso, a Carlo y a la gente de Serena que hicieron las pruebas (con un DaVinci, eh!!) les he felicitado por el trabajo que han hecho y ellos si quieren lo pueden corroborar. Es más, a Alfonso le he comentado que contara con nosotros para el futuro. Pero es que coincido con él en que hay alguna 'relación sentimental/empresarial' no abiertamente declarada.

 

Un saludo y a disfrutar de la Semana Santa

Zapardiel_Quantel

Edited by Zapardiel_Quantel
Link to post
Share on other sites

Insisto, ya por última vez, que cuando se hacen observaciones referentes a las evaluaciones de las cámaras no vale con decir que a mi me sale distinto, y cuando se hace, entiendo que debe ser cuando hay algo que mostrar y no lanzar en los foros consideraciones al menos hasta el momento indemostrables. Desconozco tus pruebas, asi como las de Gabi o las de Tomás, pero si no coincide con algunos otros dires de foto internacionales por una parte si coincide con las de otros dires de foto también internacionales .El test aunque en Español ya esta en la DCS, asi como el foro Cinamatography y CML y otros tantos. Me consta que hay mucha gente que se lo ha descargado para leerlo en Español, incluso hacer una traducción autómatica, y algunos dires de fotos internacionales han confimado los resultados, no solo en cuanto a la latitud o el ruido, también con la resolución y la sensibilidad.

Por lo tanto deberíais ser precavidos a la hora de decir que nos hemos equivocado, cosa que puede ser por cierto, y más bien de entrada contar con que vuestras consideraciones son diferentes, ahora ¿Cuales son vuestras consideraciones?. Nosotros las hemos expuesto a lo largo de más de 30 páginas. En cuanto a la posproducción parece que solo haya una forma de hacerlo que pasa al parecer por el Scratch y abrir los Raw directamente(?), cosa que como ya explique en su momento no se ajusta a la filosofía del test, esto es, que hemos querido usar máquinas y procesos de producción y posproducción habituales en el medio en que nos movemos, de suerte que todo el mundo tenga o no scrath, pueda sacar lo mejor de la cámara. También explicamos el metodo que usamos en la pospo (Hector lo cuenta de forma extensa) y nadie nos ha dicho en que punto el proceso esta mal. Ademas el proceso de exportación que se cuenta es el resultado de probar varios distintos, con valores de REDCine diferentes y el estudio de las distintas curvas, valores OLPF distintos, formatos de exportación y expacios de color distintos. Además, para la latitud hemos estudiado fotograma a fotograma de forma independiente cada exposición vía REDAlert y Vía Redcine tambien con todas las variables posibles, teniendo muy en cuenta el histograma de cada uno para ver que efectivamente las curvas aplicadas no quitaran información, como efectivamente ocurre. Por otra parte parece que el RAW fuera el misterio de los mysterium cuando en realidad no lo es para nada, toda imagen raw sea la que sea para poder verse necesita de ser interpretada por el programa que lo abre, aplicandole ciertas variables como todos sabemos, ¿no es eso lo que hace REDAlert y REDcine?, ¿la forma en que el scrath o cualquier otro que lee los archivos red lo hace mejor que los propios programas de RED? ¿No es lógico pensar que el material RED hay que pasarlo a otros formatos para que otras máquinas puedan trabajar con ellos, digamos FX, etalonaje, visionados para los clientes (HD,Pal,etc)?No dudo de la eficacia del scratch pero no todo el mundo lo tiene y a lo mejor no lo necesitan pues tiene otras máquinas que pueden hacer el trabajo.

En fin, que seguis manifestando opiniones sin aportar dato técnico alguno, que por otro lado entiendo que tenéis, sino ¿como podeis decir que nos hemos equivocado? Si como afirmas, nos hemos equivocado en el proceso supongo que es porque tu ya has realizado ese proceso y las pruebas para poder afirmarlo, entonces ¿para que necesitas dentro de un mes volver a hacerlas?

y si nos has has hecho con suficiente profundidad ¿como puedes afirmar que hemos errado?.

A mi el test me ha valido para conocer a fondo la cámara y según mi fotografía obtener los mejores resultados para cada producción, sin ir mas lejos las pruebas para la película Regina Verbae que rodaremos en 3D las estamos haciendo con la REDOne y los resultados son muy buenos trabajando la pospo en Kinema....sin scratch. Y por otro lado al publicarlo ofrecemos un punto de partida, de información para que cada cual haga las pruebas que le parezcan oportunas. Pero si entramos a evaluar los resultados entonces datos/metodología contra datos/metodologia, no datos/metodología contra opiniones/valoraciones. Hay mucha gente que lee los foros y hay que brindarles la mayor información posible si uno escribe en ellos para evitar lo que la Red tanto ha llevado aparejado, rumores, "he oido que.." "me han contado que..." "parece que.." etc,etc.

 

Una vez más con todo cariño

 

Alfonso Parra AEC

www.alfonsoparra.com

 

 

 

Link to post
Share on other sites

Interesante el debate, gracias a los implicados.

 

Aprovecho que estáis aquí los que sabéis para preguntar varias cuestiones:

 

- ¿Cuáles son las alternativas a Scratch para postproducir a 4K con material procedente de la R€DOne y bajo qué workflow?.

- ¿Cuántas estaciones con Scratch hay actualmente en España, además de la de REDLab?

- ¿Álguien sabe el precio de Scratch?

 

Vamos a encarar en breve un "proyectillo" en el que unos cuantos planos habrán de postproducirse a 4K (y porque no tenemos más...), y nuestra intención es partir de metraje de la REDOne en lo que rodemos. Otro material partirá de archivo en 35mm o 16mm y puede que lo tengamos que telecinar también hasta a 6K. La cosa es que en ciertos momentos vamos a necesitar más de 10.000 pixeles de ancho :D. Lástima que no haya aparecido aún el Monstro de RED. ¿Algún consejo?.

 

Por cierto, sobre Scratch, en sus especificaciones dicen "Direct output to tape with metadata burn-in"... Interpreto pues que el render final no se hace, sino un volcado con efectos "on the fly".

 

Además, hasta donde yo sé, el REDCode es sólo de lectura, ¿no?.

 

Saludos

Link to post
Share on other sites

A ver Alfonso, yo no he puesto en duda TODO tu articulo. Tus apreciaciones técnicas sobre la mayoria de aspectos (resolución, compresión, espacios de color, resultados de un chroma key...), si que se ajustan a los resultados que he obtenido en mis trabajos.

Ahora bien, mi disparidad de criterio viene con la de la sensibilidad de la camara y la latitud, que sinceramente no coinciden para nada con los tests que hice yo de la camara. Porque no publico esos tests? se hicieron con el build 8 o 9 de la cámara con una versión preliminar y los llevamos a cabo utopic, Mike curtis, Gabi garcia, Ivan garriga, Service vision y yo mismo, y han quedado obsoletos, porque los firmware de la cámara han ido a muchisimo mejor. La cámara ya da mucho mas de si que cuando hicimos esos tests, y lamentablemente, yo no puedo dedicar todo el tiempo que le dedicas tu a escribir 30 paginas de un articulo (de hecho, cameraman nos lo pidió y quedó pendiente en su momento).

Si, trabajo en base a esos tests pero teniendo en cuenta las actualizaciones, lo que probablemente sea un error.

Pero a lo que iba.... la parte de latitud, como tu afirmas en el mismo articulo:

 

Estos son los gráficos obtenidos del análisis de la tira de exposición con la curva REDLog que

indican que se pueden leer unos 10 stops en la calidad más baja y unos 7 en la mejor. Todo

ello considerado desde la relación del RD con el ruido. El análisis con otras curvas no Log da

resultados similares con una distribución del ruido distinta y con la curva PD 985 el resultado es

un poco mayor, llega a un rango dinámico total de 11,3 stop.

 

Estamos de acuerdo que los 11,3 stops no son utilizables... Ahora bien, 7 stops me parece infravalorar el equipo. Si es una cuestión de ruido, eso dejaria una varicam en 5 stops como mucho, y mi punto de vista, es que no es asi.

Evidentemente al final, a pesar de que digan los tests informaticos, dependemos de nuestra tolerancia visual al ruido, y probablemente la mia sea mas alta que la tuya. Yo valoro la camara sobre los 9 1/2 stops, eso si, en 4k. Puesto que al reducir la imagen (sea a 2k o a HD) el grano aparente, también se reduce. No valoro el ruido a 4k, porque ni yo, ni practicamente nadie (vosotros mismos lo comentais en el articulo), trabaja en postproducción a 4k. Entiendo que los TIFF que has cargado en postproducción para analizar el ruido de la imagen lo has hecho a 4k, por lo que muestra el grafico de la pagina 16, y logicamente, para valorar el ruido de la cámara, hay que hacerlo asi, pero en el mundo real, no trabajamos con esos parametros, asi que si las pruebas se han hecho a 2k, porque como dices tu, hay que hacer las pruebas valorandolas en una situación de trabajo habitual, y no dentro de la excepcionalidad, creo que puede ser tendencioso tomar estas lecturas asi.

Por otra parte, creo que las camaras hay que valorarlas en su modo optimo, y hacerla trabajar a 3200ºk para hacer los tests de latitud, no lo es. Tu mismo en el articulo comentas que la camara da 5000ºk (aunque CREO que da 5200ºk, que es la temperatura de color que en el redcine no aplica ningun tipo de corrección -insisto, esto habria que comprobarlo-). Evidentemente es un error que RED haya creado una cámara con temperatura de color luz dia, pero la cámara es asi y mas alla de ponerle el 80C o trabajar con luz dia no podemos hacer mas. Pero si es cierto que el ajuste de balance de blancos, (como comentais en el apartado de chroma key) introduce ruido y deja un canal muy maltrecho. Para mi, tendriais que haber hecho el test con la temperatura de color nominal de la camara, sin forzarla a trabajar a una temperatura de color que va a generar mas ruido del que tiene la camara de por si. Otra cosa es que entremos a valorar porque se hace una camara con luz dia, porque yo por ejemplo, nunca la trabajo en tungsteno.

 

En cuanto a la sensibilidad:

En la cámara con el

valor ASA a 320, hemos puesto el

diafragma que coloca al gris medio en el

histograma en modo ViewRAW ligeramente

por debajo del centro del mismo,

coincidiendo con el tono Verde del False

color y en la salida de vídeo, un valor en el

monitor de ondas del 45%, coincidiendo

estos tres valores hemos visto que el

diafragma no correspondía al valor dado

por los fotómetros ajustados a 320 ASA

pero si cuando los ajustábamos a un valor

de 125 ASA. También hemos sobrexpuesto

y subexpuesto el gris medio en valores de

½ stop y luego los hemos estudiado con

distintas curvas.

EG: ¿Quiere eso decir que la sensibilidad nominal de la cámara no es 320 ASA?

AP: Efectivamente la sensibilidad nominal de la cámara esta entre 80 ASA y 125 ASA. He

iluminado los bodegones y demás pruebas de interiores con esta sensibilidad de 125 ASA en los

fotómetros, comprobando que efectivamente, el diafragma puesto en cámara se correspondía

siempre con el que esta indicaba con sus propias herramientas en modo RAW.

 

Yo aqui considero que hay un error. Un RAW no puede visualizarse de ninguna manera. Siempre se ve una imagen procesada, aunque el sistema ponga "view raw"... con lo que la medición NUNCA debe hacerse sobre una señal preprocesada en cámara y medirla con un monitor de forma de onda. Que os lleva a pensar que la sensibilidad no es de 320?

Si tu tomas la medida en base al histograma o el false color, a 320 te dará una lectura concreta diferente (como tiene que ser) de una salida de cámara, puesto que en esta está aplicando una curva de gama, y evidentemente, diferente de un fotometro.

Además, si le cambias la sensibilidad a la cámara, logicamente el gris medio coincide en otro punto, y lo que estás haciendo es limitar la latitud de la cámara hacia arriba o hacia abajo, un poco en la linea de lo que hace panasonic con su film rec.

La manera que he encontrado de que me de correctamente a mi, es situar el gris medio clavado en medio del histograma y a partir de aqui, construirle una curva de gama basada o en un logaritmico (cineon o redlog) o rehacer una 709.

 

De hecho, puedes evaluar la sensibilidad también

mediante REDAlert si la imagen del gris medio la visualizas en CameraRGB y sin curva de

gamma, esto es en Linear Light, verás en el histograma que para obtener el valor de gris

estándar necesitas variar la exposición en unos dos stops y medio lo que sitúa la sensibilidad en

algo menos de 80 ASA, valor que coincide con el obtenido mediante la formula de Kodak. En

todo caso yo he preferido usar el valor de referencia de mis fotómetros que claro, están

calibrados.

 

Pero es que visto asi, también le estas aplicando una conversión... Insisto, en fotografia, un RAW siempre tiene que considerarse procesado, no podemos afirmar que estamos viendo el archivo original en ningun caso, sino que siempre se puede extraer mas de lo que procesas. En todo caso, ademas, el Red alert tampoco es la herramienta para ello, ya que es una herramineta de previsualización rapida.

 

¿Cuál debe ser entonces a tu juicio la forma de exponer de la cámara?

AP: Teniendo en cuenta que lo que necesito es llevarme la mayor cantidad de detalle que la

cámara puede proporcionar, hay que exponer en modo View RAW, mediante el histograma

poniendo el metadato de la sensibilidad en 320ASA, sabiendo que en el fotómetro hay que

ajustar el valor ASA alrededor de 125 para iluminar. La exposición hay que realizarla para las

altas luces colocando estas en el límite derecho del histograma sin llegar al recorte de las

mismas.

 

Hay una teoria sobre el RAW que se trabaja en las DSLR en la que la distribución de datos no es "continua". De ahi la teoria de exponer hacia la derecha. Se explica excelentemente en el libro de jose maria mellado "fotografia digital de alta calidad", pero el resumen de datos seria tal que asi:

 

Tonos muy brillantes 2048 levels

Tonos brillantes 1024 levels

Tonos medios 512 levels

Tonos oscuros 256 levels

Tonos muy oscuros 128 levels

 

Por cierto, no se en el cameraman, pero en el articulo de tu web, no se especifica a que se exportó el material de test mas allá de esto (o yo no lo he sabido encontrar), y si que me interesa saber como habeis exportado. No cuesta nada poner todos los parametros.

 

Nosotros lo hemos rendeado directamente a nuestro corrector de color Da Vinci Resolve con

una curva logarítmica para tener la mayor información posible de color, escalando todas las

tomas a una resolución de 2k y guardando en secuencia de .DPX.

Link to post
Share on other sites

Buenas a todos. En su día le pasé mis comentarios a Alfonso Parra sobre sus pruebas de la R1 y mis discrepancias en alguno de los puntos del test (ojo, sólo son 2 o 3 ptos los que considero que los resultados son matizables). Desafortunadamente perdí el email con su respuesta y lo cierto es que tampoco he podido dedicarle tiempo a este asunto.

 

Lo cierto es que como dice Pol, quizás la tolerancia al ruido es lo que hace que Alfonso situe el rango dinámico en tan sólo 7 stops, cuando yo al menos en mis pruebas en la época en que trabajaba en RedLab me daban resultados muy superiores (entre 9 y 11 stops) tal y como pueden verse aqui http://www.redlab.es/news/87/

 

Si tolerásemos un nivel de ruido cero, podriamos dejar la cámara en 7 stops tranquilamente, pero la antigua Varicam quedaría aun peor en una situacion así, y no hablemos de fotoquímico, pues incluso comparando película de 35mm de sensibilidad 250 o 500T escaneada a 2K presenta un nivel de grano (aqui sería útil discutir grano vs ruido) muy acusado, y sobre todo, prácitcamente uniforme en toda la gama, mientras que con sensores digitales, tenemos más ruido en las zonas bajas de sombras pero ni de cerca la cantidad de artefactos que produce el fotoquímico (consideraciones de gustos aparte).

 

Respecto al tema de soporte de archivos R3D nativo, que me corrijan si me equivoco, pero nativamente tenemos:

 

- Scratch

- Nucoda (no lo he visto funcionar)

- Speedgrade

- FCP (limitado 2K)

- Adobe (premiere, AFX)

- Color (limitacion 2K)

 

No he visto funcionar Avid DS y no se si da soporte nativo de R3Ds o por el contrario hace una captura y generacion de proxies dentro del programa.

Tampoco me queda claro si Mistica utiliza el R3D o si por el contrario hace una conversion como hace Pablo a su formato propietario.

Edited by Mr.Macgregor
Link to post
Share on other sites

Respondiendo a la pregunta de Quantel vs Scratch. Me he estado informando y es util conocer estos esquemas:

 

http://www.boxxtech.com/products/redBOXX/r...performance.asp

 

Es decir, desde Scratch (imagino que Speedgrade y Nucoda funcionan de un modo muy similar pues comparten mismos requisitos de hardware), podemos tener tiempo real con material de RED capturado a 4K y mostrado a 2K (ojo, no reescalado) por la salida SDI. Esto no solo sirve para etalonar comodamente sino para poder volcar a un magneto sin necesidad de render.

 

Si hicieramos un render a esta calidad, podeis ver en la tabla anterior que incluso sería mas rápido que tiempo real, es decir 1 hora de brutos tardarían en procesarse 50 minutos.

 

Ahora bien, si buscamos la máxima calidad (cine digital) lo interesante a día de hoy es capturar a 4K y trabajar a 2K reescalado. ¿por qué queremos reescalar? Bueno, con oversampling reducimos ruido y eliminamos posibles problemas de aliasing. Y en este sentido no hay hardware a día de hoy que sea capaz de procesar una imagen de RedcodeRAW a RGB a 4K y en tiempo real (ojo que no es lo mismo que leer o trabajar a 4K RGB en tiempo real).

 

Quantel usa el SDK de RED y hace estos procesos antes de ponerse a trabajar con el material.

Scratch y los citados lo hacen al contrario, el proceso se hace al final, salvo que en el caso de que acabes en cinta y no sea necesario el oversampling, no es necesario procesar nada, se hace todo on the fly, por lo que se gana tiempo.

En cualquiera de los casos los tiempos de render deberían ser los mismos, pues los procesadores a fin de cuenta son los mismos hoy en día para todos, y el cuello de botella con RAW está en el procesador. Y Scratch y Quantel son tambien productos muy diferenciados, por precio y prestaciones.

Edited by Mr.Macgregor
Link to post
Share on other sites
Lo que si es cierto, que los datos que te dan, no coinciden con mis valoraciones, ni las de Gabi Garcia, y por lo que me han comentado con las de Tomas Pladevall, asi como tampoco coinciden con las de otros dires de foto a nivel internacional. Yo sigo creyendo que en algun proceso de postproducción os equivocasteis, o que nuestras consideraciones son diferentes.

De todas maneras, tambien esperabamos a disponer de un scratch (ahora viene zapardiel a rasgarse las vestiduras) para poder hacer el test en condiciones, espero en menos de 1 mes poder hacerlo, y si quieres venir a participar o a valorarlo sobre proyeccion cuando lo acabemos, ya sabes que tienes casa y plato ;)

No me imaginaba al bueno de Tomás lidiando con estos temas :blush:

No pude disfrutar de sus enseñanzas todo lo que hubiera querido (aunque si me dio tiempo a constatar nuestras diferencias: mientras él había expuesto alguna vez tomando de referencia el reverso de la mano yo lo había hecho con la palma :lol: aunque su método tiene más sentido al ser el reverso más claro y uniforme).

 

De todas formas yo no he hablado de conversiones. Se supone que estamos trabajando con una salida HD SDI para alimentar al monitor/proyector ¿no?, pues si se puede hacer una monitorización en tiempo real, esa misma señal que va al monitor/proyector se podría conectar al VTR... ¿me equivoco?... y ¿porqué no se puede? o ¿si que se puede?

Si trabaja real-time, la misma señal que muestra en el monitor se puede grabar ¿no?

 

Pero cuidado con mezclar dos conceptos: monitorización de una señal (ver el efecto en un monitor) y volcar el material (al VTR, un magentoscopio, o donde sea) si trabaja al vuelo.

Para entendernos: cuando un programa muestra un efecto al vuelo te está enseñando como quedaría pero necesita aplicarlo (renderizar) antes de poder exportar el material. Para mostrarlo al vuelo se apoya en la RAM (como buen programa compositor o algún hibrido como son Final Cut o Premiere -editor/ compositor-).

 

Basicamente, vuestro sistema hace un volcaje a disco duro en formato propietario, yo en la ingesta a scratch, a menos que lo haga oculto en background... no lo hace

 

Vale... el r3d NO es un formato propietario, pero el 'volcado' a disco que se hace en la importación SI que lo es. Entiendo....

¿Como que no es un formato propietario? ¿Acaso r3d no es un codec que se han sacado de la manga quienes hacen la Red?

 

Redcode RAW is a variable bitrate wavelet codec which allows raw sensor data at resolutions of up to 4096x2304 to be compressed sufficiently for practical on-camera recording. Two variants are offered, one with a maximum data rate of 28MB/s (224 megabits), and one with a maximum data rate of 36 MB/s (288 megabits). Compared with the uncompressed data captured by the sensor, these bitrates represent compression ratios of about 12:1 and 9:1, respectively. Redcode is a mathematically lossy codec, meaning that decompression does not fully restore the original image data captured by the camera. However, the compression/decompression is much better visually than MPEG.

http://filext.com/file-extension/R3D

DNx también es un codec. Pero se usa para trabajar offline.

 

El tamaño de los archivos 2K y 4K hace que resulte difícil, y caro, compartir y almacenar material basado en archivos para el trabajo de edición creativa. Avid DNxHD, un códec HD que crea material HD de calidad de masterización con tamaños de archivo notablemente más pequeños. Los archivos proxy de Avid DNxHD pueden compartirse fácilmente entre sistemas de edición Avid, para lograr un sistema de producción offline a online realmente efectivo

www.avid.es/es/solutions/film-high-resolution-solutions.asp

Real-time mastering-quality Avid DNX encoding at 145 MBit/sec (8-bit 4:2:2) and 220 MBit/sec (10-bit and 8-bit 4:2:2)

Avid DS Nitris

También Final Cut permite trabajar offline (a menor calidad) para trabajar "con más soltura" y tomar las decisiones de montaje para luego pasar esas decisiones sobre el material original (pasar al proceso de finalización, online).

Creo que viendo el volumen del material con el que se trabaja ahora mismo es la opción más sensata.

 

Pero si no he entendido mal, mientras el codec .r3d es lossy (se pierde información que ya no se recupera) la idea del codec DNx es trabajar a menor calidad para luego exportar a la calidad original.

Link to post
Share on other sites

Estimado amigo, veo que seguimos en las mismas con la respuesta que me llega, ningún dato ni descripción de metodología alguna por lo que parece que este dialogo es poco fructífero, así que solo haré algunas consideración a lo que me escribes. En primer lugar me sorprende que el test que realizasteis no se pueda enseñar porque se hizo con un modelo antiguo de la cámara pero sí que vale para contraponerlo al que hemos realizado nosotros, entiendo que al menos la parte de la latitud y de la sensibilidad que es donde discrepamos, sí debe valer. Pero en fin, como parece imposible de ver pues me remito a comentar el único valor que aportas que es el la latitud de 9 ½.

Sí que me parece tendencioso insinuar que la valoración de de la latitud la hemos realizado con el programa de Imatest y la tira Stouffer, cuando como ya he explicado, la valoración se ha hecho en cuatro formas distintas, Imatest, las multiexposiciones de los bodegones y modelos y por último el rodaje en exteriores. La valoración no solo del ruido sino también de la resolución, nitidez y textura en las sombras se ha hecho en la sala habitual de posproducción de Serena, que no es 4k, o sea que sí que hemos valorado las imágenes en el mundo real y no en el idealizado 4K. En segundo lugar creo has prestado poca atención a los gráficos de Imatest, en ellos se puede ver como en la parte del talón de las curvas los primeros valores muestran poca diferenciación de valor ,de forma que los 2 primero stops son prácticamente inutilizables, además hay que añadir el valor de ruído en esos últimos peldaños que es elevado. Esto quiere decir que de los 10 Stops al menos dos no sirven si valoramos la latitud en el conjunto arriba señalado, esto deja la latitud en 8 stops, ¿que garantizan esos últimos stops? Pues que la cámara aún distingue algo de información con lo que no tendremos problemas de artefactos derivados de la falta de la misma. Con todo, también hicimos la prueba de imatest con la tira exportada a 2K y vimos que la diferencia, ni en RD ni en ruido era tan notoria. En el test hemos puesto que pasa cuando etalonamos la tira para tener un negro y blanco correctos. Con todo, Imatest es solo un programa y por ello aunque orienta no puede tomarse como referencia absoluta y por ello realizamos el resto de pruebas en el mundo real. Y eso es lo que mostramos con las multiexposiciones y los planos. No lo voy a repetir aquí, pero lo importante es que si te he entendido bien nuestras discrepancia se deben al margen de ruido que estamos dispuestos a aceptar. Pues bien sea así, pero entonces no es que hayamos cometido errores en la posproducción como has indicado en un mensaje anterior y esto es importante aclararlo ya que para mucha gente eres un referente del mundo digital y no conviene crear confusión en este punto.

Es difícil concretar más cosas sin saber como son tus pruebas, es decir ¿cuantos stops por debajo del gris puedes utilizar? ¿cuantos por arriba? ¿cuando etalonas digamos con 5 stosp por debajo recuperas, textura, y la nitidez de objetos que están digamos entonces a 7 por debajo? Lo que nosotros concluimos es que hay todavía algo de detalle en aquellos objetos que están a -5 con un alto nivel de ruido y que si aceptamos ese alto nivel de ruido se puede llegar hasta -6, si bien, y aquí entiendo que entra la subjetividad que anuncias, a nosotros nos pareció que el ruido en movimiento en las imágenes tanto de plató como exteriores era demasiado además de haber poca nitidez y las texturas de los objetos prácticamente desaparecida, por eso yo uso el valor de 41/2 sabiendo que puedo contar con algo en -5. Igual nos pasó en las altas luces. Los cuatro procedimientos para valorar la latitud coincidían básicamente.

Así que si tu consideras como valor únicamente el ruido y admites el mismo hasta algo más de 6 pues nos ponemos en 9 stops si consideras tres por arriba. En mi caso y visto los resultados de las imágenes en exteriores me valen 2 2/3 por arriba y 4 1/2 por abajo, aún como ya te he indicado que algo se ve más allá, pero yo no lo considero.

 

 

En cuanto a la configuración optima

 

1- las pruebas están para ver problemas y soluciones, por lo que hemos seguido la lógica que marca el propio fabricante. No parece ilógico usar como metadato el valor de K de los aparatos que estamos utilizando. Y si K es un metadato no hemos forzado entonces la señal de cámara en ningún sentido (por supuesto no hemos hecho balance de blancos alguno).

 

2-No obstante, el valor K es un metadato por lo que el raw no se ve afectado. Nosotros hemos probado a exportar imágenes grabadas con tungsteno sin corregir a 3200 sino en nativo 5000k que es lo que especifica el fabricante en el manual. Y , esto es importante, equilibrandoo para el gris medio no hemos visto una diferencia enorme en el RD entre hacerlo vía REDCine o en el DaVinci, con la salvedad de que este último te permite hacer la corrección más personalizada, más fina.

 

3-No me parece ni error ni no error que la cámara este equilibrada a luz día, sencillamente es así.

 

4- Por lo tanto y habiendo hecho las comprobaciones que te indico en el apartado anterior no creo que no tuviéramos la cámara en su configuración óptima, la teníamos y hemos visto los cambios en la óptima y la no tan óptima y la variación de ruido no cambia sustancialmente, como tampoco lo hace el RD.

 

5- Por supuesto en el test no hemos considerado reductores de ruído que desde luego pueden ayudar a disimular este.

 

Sobre la sensibilidad

 

No creo que a estas alturas, querido Pol, haya que explicar el raw, llevamos años trabajando con ello en las cámaras digitales de foto fija y sabemos que el raw es invisible y que solo a través de un sistema de visionado se puede saber cómo es. Vamos que el Raw es como Dios, que si quieres saber cómo es, tienes que preguntarle a un cura para que te lo cuente, y claro, unos lo cuentan mejor que otros. Por lo tanto, ¿que histograma te parece más verdadero para ver la imagen y saber como va? Porque el de la cámara dices que no, aunque el propio RED Team en su foro REDUser dicen que es completamente fiable, y yo como hombre que soy instalado en la sospecha, he grabado cartas grises sobrexponiendo y subexponiendo en distinto valores para ver dónde cae cada gris referenciado al valor LAD. Y es más, hemos comparado el histograma de la cámara con los que daba REDcine y Red alert de la misma imagen.

La evaluación del gris medio se ha hecho mediante el histograma tanto de la cámara como de los software de RED y luego en la sala de posproducción y nunca con la señal de vídeo o el false color. Lo que indicamos es que al hacer la prueba de colocar el gris medio en el histograma ligeramente por debajo del centro, esto coincidía con el valor del False Color y también para nuestra sorpresa con la señal vídeo; lo cual no deja de ser una alegría para todos aquellos que quieran usar el video de referencia como sistema de exposición. Y hay que recordar otra cosa más que es que el ASA es un metadato por lo que nuestra intención fue encontrar el valor de ASA efectivo partiendo del nominal, y por cierto creo viene aquí al pelo lo que le mandé a otro querido colega nuestro sobre este mismo asunto:

 

"Lo primero, hay que diferenciar entre el IE o sea el índice de exposición y la exposición misma, como ya indiqué en la entrevista. Y dentro del IE, la que es nominal y la efectiva. La efectiva es la que pongo en mi fotómetro para que el detalle en las sombras sea suficiente (esto es, con relación al ruido, imperfecciones, color, nitidez y contraste) y que como he comprobado es superior a la nominal.

Mi fotómetro necesita un IE para funcionar(tal y como suelo usarlo). Y mi fotómetro lo necesito en este tipo de cámaras no tanto para poner un diafragma determinado, es decir exponer, como por ejemplo preiluminar los espacios donde no dispongo de cámara para “medir”. Además conocer el IE Base (tanto el nominal como el efectivo) es necesario también para saber cuanto y que tipo de material de iluminación voy a requerir a producción. Por otro lado somos fotógrafos y venimos de una tradición de muchos años en la evaluación de la imagen que ha usado los fotómetros como herramienta importante. No creo que participemos de ninguna obsesión en establecer una relación entre nuestros aparatos tradicionales y las nuevas herramientas digitales considerando todas las variables(lineales y menos lineales). Este puente ya lo empezó a crear Kodak hace años y se ha seguido utilizando hasta el momento sin mayores problemas.

 

Por otro lado el valor de 80 ASA no proviene de analizar la imagen en un monitor sino de la formula proporcionada por Kodak y basada en el valor de saturación base y que es un extracto del método propuesto por el ISO standard 12232:1998.

Esta formula proporciona una forma teórica más de evaluar la sensibilidad “digital” y lo hace sobre supuestos que pueden efectivamente ser “conservadores” aunque no erróneos, y es por ello que yo no utilizo en mis aparatos ese valor mínimo (80) sino el que daban mis fotómetros coincidiendo con el histograma en la cámara (IE efectivo), como también indico en el articulo. A lo que invito es a comparar este valor teórico (nominal) con el valor de píxel en el histograma del gris sin curva de gamma y lo que observamos es que coincidían. Y en todo caso se hace referencia por el entrevistador al valor nominal que no el efectivo, que es por lo que indico el tema de la formula y el valor de píxel de la carta sin la “función de transferencia”

No le debería en todo caso extrañar ese valor como sensibilidad mínima de la cámara si utiliza cámaras de foto fija con sensores CMOS y patrón bayer. La sensibilidad de las cámaras incluso las profesionales ronda entre los 50 y los 150 ASA. En cualquier caso, con este valor lo que pretendía era mostrar la horquilla de Índice de exposición que se pude manejar para mantener el mayor número de valores de píxeles para captar la imagen."

 

La distinción entre Indice de exposición y exposición es importante, así como la diferencia entre la sensibilidad nominal y la efectiva porque creo que en algún momento de tus contestaciones las utilizas indistintamente.

Estarás de acuerdo conmigo que el valor ASA, al ser un metadato, su modificación en la cámara no altera la sensibilidad de esta. Por lo tanto si pones el gris medio en el centro del histograma para una cantidad de luz determinada obtienes un diafragma concreto a una velocidad y obturación fijada. Pues bien, nosotros introducíamos esos datos en los fotómetros, medíamos la luz y para nada obteníamos la sensibilidad 320, sino al menos la mitad. Después entramos a valorar distintos valores de grises en relación al Lad y curvas distintas, viendo las diferencias y las distancias de los grises respecto de la referencia, valorando esta distancia en valores de pixel y en T. Y por último evaluamos con distintas sensibilidades cómo se veían el detalle , nitidez y textura en sombras.

Con todo ello, como contamos, concluimos que el índice de exposición efectivo está entre 125 y 160 ASA, valores que concuerdan con otros que hemos visto por ahí. Ahora bien, otra cosa es la exposición, es decir, dónde colocas el gris medio, y ahí es dónde uno puede subexponer la cámara o no, marcando un IE distinto del efectivo según el trabajo fotográfico que cada uno desarrolle.

No querría dejar de aclarar lo que el IE significa: esto es, el valor (en nuestro caso en ASA) que tenemos que usar para fotografiando un gris 18% a una velocidad , obturación y diafragma determinado obtener un valor medio de valor de pixel. Este valor medio puede ser el valor medio matemático o la referencia que utilizan todos los laboratorios y buena parte de las empresas de posproducción que es el LAD de Kodak.

Si el histograma de la cámara, según tú, no es fiable ¿a qué te refieres cuando dices que clavas el gris en el centro del histograma y construyes una curva de gama? ¿en qué histograma? Y entonces ¿cómo controlas la exposición en rodaje? Y según tú ¿cuál es el IE de la cámara? ¿y cómo has llegado a conocerlo? ¿por que método?. En fin, que a lo que indicas le faltan los datos y la metodología usada para manejarlos. A lo largo de este largo mail estoy intentando explicar la que nosotros hemos usado, ya que parece que no queda claro en el articulo. A lo que parece, poner datos y demás es costoso, a pesar de lo que señalas en tu mail anterior, acerca de que no cuesta nada...

 

¿Dónde al abrir un RAW no le aplicas una conversión? Como bien dices no hay forma de ver el raw si no es por un proceso de visualización, entonces ¿cómo sabes que el raw contiene más información de la que te muestra el software? Y¿ dónde digo yo que estoy viendo la imagen original refiriéndome al raw?. De hecho digo”....si la imágen del gris medio la visualizas en Camera RGB y sin curva de gamma.........” Por lo tanto lo razonable es probar distintos sistemas de visualización y ver con cual se obtienen mejores resultados. Y hasta ahí no hemos podido llegar, aunque en esta lid sois hombre de poca fe para con los software del propio fabricante.

 

En cuanto al libro del Sr Mellado, sí, yo también se lo recomiendo a mis estudiantes, como también les invito a pasearse por un programa muy clarificador sobre la imagen digital que se llama 123di

 

Y ya para terminar, no creas que tenemos mucho tiempo para preparar los artículos; si así fuera, no tardaríamos meses en terminarlos; y es que los hacemos cuando podemos. Todos estamos muy líados, pero aún así, hacemos un esfuerzo por compartir con los colegas nuestras impresiones. Y en mi caso es una opción personal publicarlo. Particularmente considero que hay que contribuír al conocimiento, al igual que yo aprendo de mucha gente que hace que mi trabajo sea mejor. A nadie se le puede pedir que publique; pero sí se puede pedir que cuando se contesta a algunos de los trabajos, se haga sobre bases bien argumentadas y documentadas.

 

Y poco más, salvo que si no vamos a tener datos, imágenes, métodos, etc... esta conversación prefiero dejarla aquí y seguirla en otro lugar con una buena caña de cerveza.

 

Siempre servidor de usted

 

Alfonso Parra AEC

www.alfonsoparra.com

Link to post
Share on other sites

Hola de nuevo Alfonso,

A ver, por partes...

 

No pretendo establecer una comparativa entre el material que yo tengo de test con un prototipo muy "primitivo" y tu test. Mas que nada porque el test, aunque es parecido (cartas y personas), no está planteado de la misma manera.

Pero de todas maneras, mis apreciaciones, son en base a ese test y a lo que he ido viendo en sucesivas versiones. Me sorprende que desconfies de mi, puesto que yo por ejemplo, hago un acto de "fe" al tener que valorar tus pruebas con jpg's de 5 centimetros o lo publicado en la cameraman y confio totalmente en tus apreciaciones tecnicas.

Ante todo, vuelvo a insistir. No pongo en duda nada mas que el tema de la latitud y vinculado al mismo, la sensibilidad de la cámara, puesto que insisto, no coincide con mis apreciaciones.

 

Ahora también me gustaria aclararte, que al margen que se presente un "contratest" que afirme otra cosa, lo que si que estoy en mi derecho, es en consultarte los procesos que habeis usado, y que segun mi criterio, tal como estan explicados, no me parecen del todo "logicos".

No entiendo porque si afirmas:

 

Con todo, también hicimos la prueba de imatest con la tira exportada a 2K y vimos que la diferencia, ni en RD ni en ruido era tan notoria. En

 

Y porque no publicasteis todo el protocolo directamente con el 2K?

Yo si encuentro diferencia, cuando he rodado con la red y es tan simple de entender como ser consciente que si tu reduces una imagen 4 veces (que es lo que aproximadamente reduciriamos a 2k), el grano queda reducido asimismo 4 veces, con lo que una imagen con ruido "intolerable" en 4k reducido a 2k pasan a ser mas que aceptables. Yo mismo realicé tests (no, no los he publicado, solo tengo las capturas) de ganancia en una F900, que en HD no son tolerables, y pasados a PAL (por ejemplo) directamente a 6db's eran practicamente inapreciables.

Yo no suelo usar el imatest, me parece que aunque "cientificamente" deberia ser lo correcto, pero cada vez que lo comparo con los resultados al test de cámara convencional, acabo llegando a la conclusión que prefiero sacar conclusiones visuales y no de analisis, y acabo haciendo los mismos tests de sobre/subexposicion y etalonaje parecidos a los que haces tu.

Ademas, volvemos a lo mismo, o quedamos en un estudio con el material como dios manda, pero valoraciones en base a jpg's de un solo frame para valorar esto, no me sirven (y espero que a ti tampoco)

 

En cuanto a esto:

 

Pues bien sea así, pero entonces no es que hayamos cometido errores en la posproducción como has indicado en un mensaje anterior y esto es importante aclararlo ya que para mucha gente eres un referente del mundo digital y no conviene crear confusión en este punto.

 

te refieres a este comentario mio:

Yo sigo creyendo que en algun proceso de postproducción os equivocasteis, o que nuestras consideraciones son diferentes.

 

No quiero causar confusión, ni dudo de vuestra profesionalidad, pero Alfonso, en el articulo tampoco se habla con TANTO detalle como para saber si los procesos fueron los correctos, y es a partir de estos posts que estamos aclarando que realmente es simplemente una disparidad de criterio en donde estamos dispuestos a aceptar ruido unos o otros para determinar donde acaba el recorrido usable de la cámara.

En cuanto a la latitud por arriba y por abajo, va a depender de la sensibilidad que trabajes en cámara. Al cambiar el gris neutro de posición, lo que hago es redistribuir la latitud de la camara, con lo que dependerá de cada "metadato" que le de para apreciar la lectura de ruido.

 

1- las pruebas están para ver problemas y soluciones, por lo que hemos seguido la lógica que marca el propio fabricante. No parece ilógico usar como metadato el valor de K de los aparatos que estamos utilizando. Y si K es un metadato no hemos forzado entonces la señal de cámara en ningún sentido (por supuesto no hemos hecho balance de blancos alguno).

2-No obstante, el valor K es un metadato por lo que el raw no se ve afectado. Nosotros hemos probado a exportar imágenes grabadas con tungsteno sin corregir a 3200 sino en nativo 5000k que es lo que especifica el fabricante en el manual. Y , esto es importante, equilibrandoo para el gris medio no hemos visto una diferencia enorme en el RD entre hacerlo vía REDCine o en el DaVinci, con la salvedad de que este último te permite hacer la corrección más personalizada, más fina.

 

Esto no me cuadra para nada.

Es evidente que el metadato no modifica el sensor, pero si lo hace a la señal de salida que le des.

En la pagina 25/26, cuando hablais de los chroma keys, tu mismo explicas que el software de salida hace un ajuste de color para ajustar el balance de blancos de la señal.

Y te cito a ti mismo:

EG: ¿Y como corrige el programa el color?

AP: Pues modificando la relación entre RGB, corrigiendo la ganancia de cada uno de los canales respecto de los otros para conseguir un equilibrio.

En el caso del tungsteno significa que tiene hay que aumentar la ganancia del azul que tiene menos valores y eso conlleva la aparición de ruido y en un último extremo efectos de posterización en las zonas de sombras más profundas notándose más los efectos de la Interpolación. Mira, no sé si se apreciara bien cuando lo paséis a papel impreso, pero esta imagen es una ampliación de dos planos iguales uno rodado sin filtro de corrección y otro con un 80C en cámara.

De hecho haceis una captura comparando dos keys y denotando la diferencia de ruido importante que hay entre una imagen con filtraje 80C en cámara y una imagen con el ajuste de balance de blancos en post.

Si habeis rodado el test de latitud con el ajuste a 3200ºk, teneis el mismo ruido que os aparece cuando habeis hecho el test de chroma keys.

Pero es que hasta tu lo dices en el apartado de chroma keys:

 

AG: ¿entonces es recomendable usar el filtro?

AP: Usar el filtro o iluminar con aparatos de tungstenos filtrados con CTB. O directamente

iluminar con HMI.

 

Porque no lo hicisteis en el apartado de latitud, siendo TAN y TAN importante el tema del ruido en ese caso???

 

3-No me parece ni error ni no error que la cámara este equilibrada a luz día, sencillamente es así.

 

Y aqui añado mi valoración personal. No es que sea un error, pero evidentemente fabricar una cámara para cinematografia con daylight, no tiene sentido. Para compensar 3000ºK (o los que sean), lo mas logico es que se use un filtro delante de cámara para evitar estos problemas que hablabamos de ruido cuando se aplica la ganancia al canal contrario para compensar una dominante. Con una cámara que trabaje con luz tungsteno, este filtro hay que usarlo principalmente cuando usemos fuentes de luz con temperatura de color daylight, o directamente en exteriores. Al reves, necesitaremos filtrar una camara daylight cuando vayamos a rodar con luz de tungsteno. Cual es el problema? que evidentemente la cantidad de luz que disponemos cuando rodamos con fuentes de luz daylight, suele ser bastante alta COMO NORMA GENERAL (sean HMI, o principalmente con la luz del sol). Ahora bien, las situaciones con luz de tungsteno (o temperatura de color baja), SUELEN ir asociadas a fuentes de luz de poca potencia (por ejemplo un exterior noche sin refuerzo de luz), con lo que si hay que sumar la ganancia del balance de blancos o un filtro 80C (que se nos come tranquilamente un stop), iremos justos tanto de luz como de ruido.

(y Alfonso, esta apreciación es para toda la gente que lee este post de manera informativa, se que tu lo tienes clarisimo).

 

Pasando al tema sensibilidad:

Por lo tanto, ¿que histograma te parece más verdadero para ver la imagen y saber como va? Porque el de la cámara dices que no, aunque el propio RED Team en su foro REDUser dicen que es completamente fiable, y yo como hombre que soy instalado en la sospecha, he grabado cartas grises sobrexponiendo y subexponiendo en distinto valores para ver dónde cae cada gris referenciado al valor LAD.

 

Creo que ante todo habria que destacar que tu y yo (creo) somos igual de escepticos acerca reduser y el equipo de red...

Ahora bien... cual es el histograma real?

Mi teoria, o al menos es la que uso yo en mis rodajes, es que ante una situación de "duda", el histograma leido sobre una sola metadata de ISO, no me vale.

Prefiero ver la lectura que me da el histograma modificando la metadata para ver sus limites. Yo por ejemplo, para hacerme una idea real de en que me estoy moviendo, suelo examinar el histograma, por ejemplo, si estoy en 250ISO de referencia, a 125 y a 640 y veo hacia donde se desplaza uno y otro, con lo que puedo llegar a una idea "global" de lo que expongo realmente. Ahora bien, solo lo haré en casos donde la señal no me quepa en un histograma y para ver exactamente que descarto, o que reilumino o que filtro (etc...) para meter la señal que necesito.

A la practica, yo puedo generar un gris neutro en cualquiera de las sensibilidades que tiene la cámara, y como tu dices, estaré modificando la metadata y no la sensibilidad del sensor, pero en realidad, lo que estoy haciendo es redistribuir la latitud de la cámara, y dandome mas margen de recorrido por arriba o por abajo segun mis necesidades.

 

Entiendo tu comentario sobre el uso del fotometro y el indice de exposición, pero... creo que vamos en una linea incorrecta.

Creo, y dime si me equivoco, que mas de una vez hemos comentado (y si no ha sido contigo disculpa), que las principales razones de uso de un fotometro en un rodaje digital serian para medir ratios de contraste, continuidad y preiluminar.

Yo suelo usarlo para las continuidades, pero... no tendria mas sentido trabajar con luxometros?

Creo que en el momento que se use una curva de gama, el fotometro solo clavará el gris medio, y si voy a preiluminar para trabajar en high key o low key.... patinaré con el mismo.

Si, evidentemente necesitamos ALGO que nos permita preveer cuanta luz necesitaremos, pero me da la sensación que habria que plantear en un futuro otro protocolo de trabajo. Yo mismo en la pelicula que rodé en argentina con la hpx3000, decidí preiluminar los sets con mi gaffer partiendo de base en un 400ISO (que era lo que teoricamente daba tras las pruebas con la cámara), y de esos, todos los que trabajé para low key, tuve que dedicarme a apagar mucha luz, puesto que era excesiva, especialmente en las zonas de sombra.

Evidentemente elegir 160ISO es (increiblemente) conservador, y que va a asegurar que no falte luz en el set.

 

Por ultimo Alfonso, este parrafo, me gustaria pensar que no es una indirecta:

 

Y ya para terminar, no creas que tenemos mucho tiempo para preparar los artículos; si así fuera, no tardaríamos meses en terminarlos; y es que los hacemos cuando podemos. Todos estamos muy líados, pero aún así, hacemos un esfuerzo por compartir con los colegas nuestras impresiones. Y en mi caso es una opción personal publicarlo. Particularmente considero que hay que contribuír al conocimiento, al igual que yo aprendo de mucha gente que hace que mi trabajo sea mejor. A nadie se le puede pedir que publique; pero sí se puede pedir que cuando se contesta a algunos de los trabajos, se haga sobre bases bien argumentadas y documentadas.

 

He publicado pocas pruebas (a pesar de tener horas de material rodado), porque tu bien sabes lo que cuesta poner esa información en papel, yo no suelo hacer informes de mis tests, sino que llego a mis conclusiones, tomo mis notas y ya está, y NUNCA son tan en profundidad como los que haces tu, sin duda. Ahora bien, coincido contigo en compartir el conocimiento, y es por eso que suelo escribir aportando ayuda a la gente, pero principalmente dedico MUCHISIMO tiempo (del que no dispongo y tengo que robar de otras partes) para trabajar (sin animo de lucro)en el TEA, sea en la organización o sea en el blog, que aunque no contenga pruebas, intentamos que sea una fuente de información al dia para todos. No te ocultaré que tu reproche en el tema de compartir conocimientos me ha molestado, pero lo asumo, te doy la razón y te agradezco que tu si compartas los tests. Intentaré en un futuro que las pruebas que haga se publiquen.

Edited by polispol
Link to post
Share on other sites

Estimado Pol:

 

Nada más lejos de mi intención que lanzarte indirectas o molestarte de cualquier otra manera, todo lo contrario, si te he contestado en este foro ha sido precisamente para que los comentarios contigo sean más en profundidad y sirvan para aclarar cuestiones que si no de otra manera hubieran quedado algo confusas. Por supuesto no dudo de la profesionalidad de tus pruebas ni tampoco de la metodología que has utilizado aunque no me la has empezado a contar hasta ahora, y eso es lo quiero cuando entro en conversación en un foro, comprender y no solo leer comentarios. Por otro lado, nunca te agradeceremos suficiente el trabajo que desarrollas en el TEA y el comentario que te molesto, solo tiene un sentido y es pensar que muchisima gente lee lo que escribimos, mucha gente que no te conoce, y es para ellos por lo que las opiniones que demos han de ser lo mas completos posibles con todo el trabajo que conlleva. En todo caso si te he molestado te pido disculpas, no ha sido mi intención.

 

 

 

Con todo, también hicimos la prueba de imatest con la tira exportada a 2K y vimos que la diferencia, ni en RD ni en ruido era tan notoria. En

 

Y porque no publicasteis todo el protocolo directamente con el 2K?

 

Todo el tema de la latitud a excepción de la tira Stauffer esta hecha a 2K, porque insisto la evaluación de la latitud no la hemos solo referenciado al rudio, sino también y claro esta, todo ello relacionado, a la nitidez (contraste), resolución y la textura, de forma que con -6 puedo ver todavía una ligera diferencia de luminosidad entre la tela negra y el terciopelo pero ademas del ruido no hay textura alguna y la nitidez es pequeña (falta de contraste), por lo tanto no hay que insistir solo en el ruido como elemento a comtemplar sino en la valoración general de la imagen en esos límites. Así es como lo hemos hecho. Lo único que esta estudiado a 4k es la tira stouffer, ¿porque? pues como tu ya has indicado porque es la máxima resolución que permitie la cámara y como ya te indique también lo hicimos a 2k y el RD no variaba sustancialmente.

Efectivamente la apariencia del grano se reduce al pasar a 2K, pero también la resolución y la nitidez y por tanto la textura, por lo que ganamos en la menor apariencia del ruido lo perdemos en contraste y textura. Y como digo, nosotros no solo valoramos la latitud en función del ruido como hace Imatest, sino contemplando las imágenes en su resolución contraste y textura en 2K.

Puede ser que hubiera tenido que publicar la tira en 2K pero me parecio más interesante y "real" con la cámara hacerlo a su máxima resolución. Por otro lado, toda publicación tiene sus limites y demasiado es que Cameraman admita evaluaciones tan largas en sus páginas, si tuviera que publicar todo el material que hemos probado no cabría en revista alguna, o hacemos una entrega por fascículos.

 

 

No quiero causar confusión, ni dudo de vuestra profesionalidad, pero Alfonso, en el articulo tampoco se habla con TANTO detalle como para saber si los procesos fueron los correctos, y es a partir de estos posts que estamos aclarando que realmente es simplemente una disparidad de criterio en donde estamos dispuestos a aceptar ruido unos o otros para determinar donde acaba el recorrido usable de la cámara.

En cuanto a la latitud por arriba y por abajo, va a depender de la sensibilidad que trabajes en cámara. Al cambiar el gris neutro de posición, lo que hago es redistribuir la latitud de la camara, con lo que dependerá de cada "metadato" que le de para apreciar la lectura de ruido.

 

Es un articulo y como tal no puede contener todo, y menos en formato entrevista, porque el objetivo es informar de la línea en que hemos trabajado para que mucha gente pueda recorrerla y encontra su propia forma de hacer y no sería la primera vez que personas me mandan mails para preguntar por una cosa en concreta que no esta en los articulos. Aún asi, yo creo que damos bastante información del proceso y de la metodología seguida aunque para muchos nunca será suficiente, pero no nos quedan más hojas en Cameraman.

En tu comentario vuelves a unificar sensibilidad con exposición. Es evidente que cuando pregunto por los stops por arriba o por abajo lo hago tomando como refencia un valor de gris concreto que se referencia al LAD o si quieres al valor medio del histograma, es decir el gris estándar. Cuando varias la exposición para que ese gris esta sobre o subexpuesto no estas realmente redistribuyendo la latitud sino dando prioridad al detalle en las altas luces frente a su pérdida en las sombras o al revés dar más detalle a las sombras frente a la pérdida en las altas luces. La exposición es un valor que pertence al mundo creativo propio de cada fotógrafo ) (Y esto es para los que nos leen, que no para ti que lo sabes desde que eras pequeño).

 

 

Esto no me cuadra para nada.

Es evidente que el metadato no modifica el sensor, pero si lo hace a la señal de salida que le des.

En la pagina 25/26, cuando hablais de los chroma keys, tu mismo explicas que el software de salida hace un ajuste de color para ajustar el balance de blancos de la señal.

 

 

Si habeis rodado el test de latitud con el ajuste a 3200ºk, teneis el mismo ruido que os aparece cuando habeis hecho el test de chroma keys.

Pero es que hasta tu lo dices en el apartado de chroma keys:

 

 

Porque no lo hicisteis en el apartado de latitud, siendo TAN y TAN importante el tema del ruido en ese caso???

 

Pues sencillo, primero porque el tema del ruido es crucial en los efectos digitales y es ahí donde se necesita el ajuste más fino, para poder hacer los recortes en condiciones y por ello insistimos en el tema del canal azul.

Porque sí hemos rodado las pruebas de las modelos con el filtro 80C y tambien tenemos esos fotogramas y si puse los de tungsteno en la publicación fue por dos razones:

1- Porque la valoración de la latitud no cambiaba sustancialmente, aunque si habia una ligera mejoría del ruido en los -5 y -6 mejoría que no llevaba aparejada ninguna mejora en la captación del detalle, de la textura ni de la resolución.La tolerancia del nivel de ruido no es igual para los efectos digitales que para un plano que no los contenga.El ruido es un elemento clave en los efectos.

2- Porque es una forma de trabajo habitual en el país en que nos movemos ,esto es rodamos con tungsteno y no siempre se puede colocar un 80C que te deja la sensibilidad de la camara en valores que necesitan de muchas luz, que cuesta dinero. Y casi nadie se permite iluminar con HMI permanentemente su película. Por lo tanto, estan publicadas las de Tungsteno porque me parece mas "reales" y ajustadas a los que pueden usar esa cámara. E insisto la imagen en las subexposiciones es algo más limpia ajustando la iluminación a la temperatura de color de la cámara pero no tanto como para que esta gane más latitud (nitidez+resolución+detalle+ruido)

Por ejemplo y sin ir más lejos, las pruebas que estoy rodando con la RED para la película que te comenté estoy usando tungsten sin poner nada en la cámara, ¿por qué? Pues porque el presupuesto, siendo pruebas no da para iluminar un plato con HMI, ni tampoco puedo usar filtros que me quieten 1 Stop ademas de los 2 que me quita el espeje del Rig 3d, porque entonces me quedo con 20ASA, y ¿cuantos Kw necesito para iluminar todo el plató para tener un 5.6? Una barbaridad.

De lo que no tengo duda es que si puedo, corregire la luz para 5000ºK pero en mi fotometro seguire poniendo los margenes de latitud en 4 1/2 por abajo y 2 1/2 por arriba sabiendo que los límites esta en -5 y +2 2/3

 

Alguien me contó que la cámara aunque se venda en todo el mundo esta fabricada con mentalidad americana, esto es que al paracer allí no hay tanto problema para usar HMI o poner cantidades ingentes de luz de tungsteno para compensar el filtro en la cámara. Puede ser, en todo caso es una cámara que ese sentido no se adapta bien a la forma de hacer cine aquí, siempre tan precario.

 

 

Pasando al tema sensibilidad:

Por lo tanto, ¿que histograma te parece más verdadero para ver la imagen y saber como va? Porque el de la cámara dices que no, aunque el propio RED Team en su foro REDUser dicen que es completamente fiable, y yo como hombre que soy instalado en la sospecha, he grabado cartas grises sobrexponiendo y subexponiendo en distinto valores para ver dónde cae cada gris referenciado al valor LAD.

 

Creo que ante todo habria que destacar que tu y yo (creo) somos igual de escepticos acerca reduser y el equipo de red...

Ahora bien... cual es el histograma real?

Mi teoria, o al menos es la que uso yo en mis rodajes, es que ante una situación de "duda", el histograma leido sobre una sola metadata de ISO, no me vale.

Prefiero ver la lectura que me da el histograma modificando la metadata para ver sus limites. Yo por ejemplo, para hacerme una idea real de en que me estoy moviendo, suelo examinar el histograma, por ejemplo, si estoy en 250ISO de referencia, a 125 y a 640 y veo hacia donde se desplaza uno y otro, con lo que puedo llegar a una idea "global" de lo que expongo realmente. Ahora bien, solo lo haré en casos donde la señal no me quepa en un histograma y para ver exactamente que descarto, o que reilumino o que filtro (etc...) para meter la señal que necesito.

A la practica, yo puedo generar un gris neutro en cualquiera de las sensibilidades que tiene la cámara, y como tu dices, estaré modificando la metadata y no la sensibilidad del sensor, pero en realidad, lo que estoy haciendo es redistribuir la latitud de la cámara, y dandome mas margen de recorrido por arriba o por abajo segun mis necesidades.

 

Me parece muy bien, es un método, que además me parece interesante probar ¡igual hago un articulo con ello!.. si me cedes el copyright. Yo utilizo otro método, más al estilo de la vieja escuela, y es que una vez elegido mi IE de referencia veo en el histograma donde se situa la carta gris 18% iluminada con la luz del decorado y dependiendo de donde este y en función del RD de la escena decido poner el T, eso signifca que a veces trabajo sobrexponiendo o subexponiendo respecto de gris en función de como necesite la imagen. La cantidad de detalle que ve la cámara estará marcada dentro de las pruebas que hago previas con la misma, por eso siempre marco en mi spot los limites del RD de la cámara y miendo la luz reflejada de cualquier objeto del plano se si esta dentro o no del rango. Y lo mejor de estas cámara que en caso de duda, grabo un fotograma y lo abro para ver que sucede en el histograma.Aunque como ya te conte el histograma de la cámara despues de las pruebas de grises me parece bastante fiable por lo que también puede abrir o cerrar el diafragma para ver si hay más información en algún sitio.

 

Entiendo tu comentario sobre el uso del fotometro y el indice de exposición, pero... creo que vamos en una linea incorrecta.

Creo, y dime si me equivoco, que mas de una vez hemos comentado (y si no ha sido contigo disculpa), que las principales razones de uso de un fotometro en un rodaje digital serian para medir ratios de contraste, continuidad y preiluminar.

Yo suelo usarlo para las continuidades, pero... no tendria mas sentido trabajar con luxometros?

Creo que en el momento que se use una curva de gama, el fotometro solo clavará el gris medio, y si voy a preiluminar para trabajar en high key o low key.... patinaré con el mismo.

Si, evidentemente necesitamos ALGO que nos permita preveer cuanta luz necesitaremos, pero me da la sensación que habria que plantear en un futuro otro protocolo de trabajo. Yo mismo en la pelicula que rodé en argentina con la hpx3000, decidí preiluminar los sets con mi gaffer partiendo de base en un 400ISO (que era lo que teoricamente daba tras las pruebas con la cámara), y de esos, todos los que trabajé para low key, tuve que dedicarme a apagar mucha luz, puesto que era excesiva, especialmente en las zonas de sombra.

Evidentemente elegir 160ISO es (increiblemente) conservador, y que va a asegurar que no falte luz en el set.

 

Si efectivamente hemos hablado de ello en alguna ocasión y estamos de acuerdo en que trabajar en lux puede ser más ajustado. Pero no creo que vayamos en una dirección incorrecta al querer mantener ese puente analógico-digital y solo por una razón, porque a día de hoy son multitud los operadores que trabajamos con los fotómetros y a muchos les interesa esa relación para su trabajo cotidiano. De ahí mi interés en establecer seguir manteniendo ese puente.

 

 

Sin más

 

Alfonso Parra AEC

www.alfonsoparra.com

Link to post
Share on other sites

Muy interesante, pero ¿hay algún enlace para poder echar un ojo al artículo de la discordia?...

Es curioso pero mis pruebas con Red One mucho más modestas que la que pueda realizar el señor Alfonso Parra o el señor Pol Turrents, con carta de gris, carta de color, rostros, etc... también me daban un 125 ASA midiendo con el fotómetro (aunque la cámara dijera 320 ASA).

Link to post
Share on other sites
Muy interesante, pero ¿hay algún enlace para poder echar un ojo al artículo de la discordia?...

Es curioso pero mis pruebas con Red One mucho más modestas que la que pueda realizar el señor Alfonso Parra o el señor Pol Turrents, con carta de gris, carta de color, rostros, etc... también me daban un 125 ASA midiendo con el fotómetro (aunque la cámara dijera 320 ASA).

 

Puedes descargarte un pdf de mi web www.alfonsoparra.com

Y por cierto, las pruebas nunca son modestas por pequeñas que sean, siempre son una fuente de conocimiento para el que las hace y para quien las ve. Y ni Pol ni yo somos tan viejos como para llamarnos señores, o eso quiero creer, aunque los años no pasan en balde.

 

saludos

 

Alfonso Parra AEC

www.alfonsoparra.com

Link to post
Share on other sites
Muy interesante, pero ¿hay algún enlace para poder echar un ojo al artículo de la discordia?...

Es curioso pero mis pruebas con Red One mucho más modestas que la que pueda realizar el señor Alfonso Parra o el señor Pol Turrents, con carta de gris, carta de color, rostros, etc... también me daban un 125 ASA midiendo con el fotómetro (aunque la cámara dijera 320 ASA).

 

Puedes descargarte un pdf de mi web www.alfonsoparra.com

Y por cierto, las pruebas nunca son modestas por pequeñas que sean, siempre son una fuente de conocimiento para el que las hace y para quien las ve. Y ni Pol ni yo somos tan viejos como para llamarnos señores, o eso quiero creer, aunque los años no pasan en balde.

 

saludos

 

Alfonso Parra AEC

www.alfonsoparra.com

 

Vaya, que pronta respuesta, muchas gracias por el artículo Alfonso, no pretendía ofender con el "señor" era un manera de mostrar el respeto que siento ante dos grandes profesionales del sector... para una vez que no hablo de tú :rolleyes: :rolleyes:

Link to post
Share on other sites

En la prueba de Cameraman se puede leer:

 

"Hemos iluminado la

carta uniformemente, equilibrando la

temperatura de color de los aparatos a

3200ºK y a una intensidad de luz para

320ASA,..."

 

"En la cámara con el

valor ASA a 320, hemos puesto el

diafragma que coloca al gris medio en el

histograma en modo ViewRAW ligeramente

por debajo del centro del mismo,

coincidiendo con el tono Verde del False

color y en la salida de vídeo, un valor en el

monitor de ondas del 45%,..."

 

Si no es molestia Alfonso, te voy a tutear porque si no, me va a salir un ladrillazo imposible de leer. ;D

Bien, desde mi punto de vista iluminar unos tests de cámara a 3200º ya es un error como punto de partida. Luego en el comentario de ayer argumentas diciendo que volviste a resetear el metadato en postpro (lo cual no tiene mucho sentido), pero aun asi la exposición al gris medio la realizaste con la cámara a 3200ºK. Y hay que tener en cuenta que tanto el false color como un forma de onda conectado a la salida HDSDI miden lo que estas viendo por monitor, la conversion al vuelo a RGB. Por lo tanto ya de primeras estas forzando la señal del canal azul por separado si trabajas a 3200º. No recuero el dato de memoria ahora, pero juraría que al menos hay un 1/3 de stop de diferencia entre exponer a 3200º vs 5600ºK. QUe la cámara es ruidosa? Bueno, es discutible y para eso estamos aqui, pero a 3200º seguro que lo es.

 

Por otro lado, no puedes colocar una carta de gris medio en el centro del histograma en ViewRaw (tampoco usar el False color en este modo), el gris medio debes colocarlo con la gamma final de salida de tu trabajo. ¿por qué expones a gris medio con una gamma que no es la que vas a utilizar? No tendría sentido!

 

Es cierto que esto es un tema confuso por lo siguiente:

- el modo view Raw en camara no es RAW, eso lo tenemos todos claro. Pero tampoco es un modo lineal 1.0, sino que lleva aplicada una gamma 2.2 para compensar la de los monitores. En realidad, el modo viewRaw desactiva todos los demas metadatos (ganancia, WB, looks, etc) por lo que lo deja muy próximo a lo que veríamos con un ISO 250, WB a 5000ºK y espacio de color cameraRGB y gamma rec709. Podeís hacer la prueba. De tal modo que si expusiste el gris medio con el viewRaw, mas o menos estabas exponiendo con un 250ISo de cámara (algo ademas poco recomendable por los problemas de rango dinamico que vas a tener) dejando la sensibilidad real en torno a 80-125ASA. Vaya!!!! Qué casualidad, si son los valores que leo en la prueba de Cameraman! ("Efectivamente la sensibilidad nominal de la cámara esta entre 80 ASA y 125 ASA.") Esta es la razón por la que considero matizable el resultado de este análisis. No es que sea erróneo el dato, sino que es el resultado de la sensibilidad de la camara configurada a 250ISO, no a 320ISO.

 

- Por otro lado hay que tener en cuenta también que cuando desactivas la pestaña Color en RA o RC, aqui si vemos la imagen en lineal 1.0. Por lo tanto tampoco esperemos ver el gris medio en el centro del histograma. Como todos sabemos, en una imagen lineal, los stops no estan distribuidos equitativamente.

linear.jpg Cortesía de Adobe.

El gris medio irá colocado muuuuuuuuy a la izquierda, tan a la izquierda como stops de RD tengamos por encima del gris medio (pero mas o menos entre el 128 y 256).

Si nos empeñamos en dejar el gris medio en la mitad de una imagen lineal estaríamos sobreexponiendo la imagen, y por lo tanto, sacando un dato de sensibilidad erróneo pues has tenido que abrir en exceso el diafragma para conseguir que el gris medio esté en el centro del histograma. Por lo tanto la cámara parecerá ser menos sensible de lo que realmente es.

 

Como yo planteo esta conversacion en el foro como algo constructivo, mi punto de vista es el siguiente:

¿Cómo habría realizado yo las pruebas de sensibilidad, rango dinámico y latitud en una cámara que es RAW y que no trae de por si diferentes curvas o profiles (los ajustes de ISO no son curvas, es decir, a medida que subes el valor, se clipean las altas luces, es una solucion rapida y comoda pero poco precisa para el DP)?

 

Yo habría empezado realizando un test de rango dinámico con un ajuste de ISO cualquiera. Teniendo especial cuidado en recuperar cualquier informacion de altas luces en postpro (lo ideal es utilizar scratch o cualquier soft que permita leer la imagen lo mas pura, es decir, lineal 1.0 sin ajuste de metadatos. Si no es posible esto, al exportar de redcine será esencial bajar la sensibilidad de TODAS las tomas a 250ISO y aplicar una curva Redlog o arri985 a gusto personal). Una vez realizado esto, sabremos cuantos stops es capaz de recoger la cámara. Dibujamos un simple diagrama donde asignamos el sistema de zonas producto del test de rango dinámico a los differentes ISOs de cámara. Con estos 2 datos ya sabremos qué ISO de cámara (por ejemplo 500iso) nos interesa mas (por rango dinámico y por cantidad de ruido). Una vez escogido el ISO o ISOs predilectos, pasamos a la prueba de sensibilidad (la hemos dejado para el final), es decir, que valor me da la cámara para una correcta exposición y que valor me da mi fotómetro. ¿que hay un desfase? Bien, lo apuntamos.

 

Pero lo que hay que tener claro es que es el rango dinámico de la escena en relacion con el sistema de zonas de nuestro sensor el que nos va a marcar la sensibilidad en una cámara que graba en RAW. Y dependiendo de la situacion este parametro lo vamos a ir cambiando. No podemos hacer todas las pruebas y rodajes quedándonos unicamente con el valor que aparece cuando enciendes la cámara 320ISO. A menos que como profesionales, observemos que sólo te guste la imagen a 320ISO, lo cual es respetable, claro.

Así funciona la Arri D21 (seguro que teneis los diagramas pertinentes al respecto) y la RED.

Edited by Mr.Macgregor
Link to post
Share on other sites
El problema sigue estando en que casi todo el mundo dejar la cámara con una configuación de 320iso sin pararse a pensar si es lo más optimo o no.

 

LINK PDF

 

 

Macgregor me estás rompiendo los esquemas, entonces según tus pruebas tienes que subir la sensibilidad nominal de la cámara para tener menos grano (preferiblemente ponerla a 500 o 640 ASA) ¿?¿?¿?¿, y otra cosa que me ha roto, la cámara no debe ponerse nunca por debajo de 250 ASA bajo ninguna circunstancia ¿?¿?¿?¿?... y si estamos rodando en Almeria, en Agosto y no quiero ir a 11 de diafragma tengo que pedir a la casa de alquiler un parasol de 4 slots para poner todos los neutros del universo... porfi expliqinmi :huh: :huh:

Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.

Guest
Reply to this topic...

×   Pasted as rich text.   Restore formatting

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

×
×
  • Create New...

Important Information

We have placed cookies on your device to help make this website better. You can adjust your cookie settings, otherwise we'll assume you're okay to continue.