Siggraph 2011 – Día 1
agosto 8, 2011

Arranca SIGGRAPH 2011 en Vancouver, Canadá.

Vancouver Convention Center (East)

Vancouver Convention Center (East)


Primera charla en The Studio, hablando sobre la creación de objetos en casa, usando impresoras 3D, y su posible evolución como equipo de consumo masivo en unos años. Desde hace unos pocos años en que salieron al mercado, se han estado usando como generadores de prototipos rápidos.
En el futuro podríamos descargarnos de internet la información necesaria para “imprimir” esos objetos en casa, con posibilidades infinitas de personalización y sin los costes de fabricación de moldes, almacenamiento o transporte. Incluso para fabricar los ptrones de ropa o calzado a medida.
También para reponer partes de objetos antiguos que ya no se fabrican!
Una tecnología “Star Trek” que es ya una realidad, aunque algo más lenta 🙂
Impresoras 3D en The Studio

Impresoras 3D en The Studio

El primer curso al que he ido ha sido 3D Spatial Interaction: applications for art, design and science.
Técnicas de desarrollo de interfaces 3D para navegación en entornos virtuales.

Otro curso que he escogido ha sido Destruction and Dynamics for Film and Game Production.
Han explicado la evolución de las secuencias de destrucción usando efectos visuales físicos (Dante’s Peak) a los efectos 100% CGI (2012) y las técnicas usadas para que sea posible hacerlo en un tiempo razonable.

Para acabar el primer día de Siggraph, la tradicional sesión “Fast Forward papers”, un resumen en 2h de todos los papers técnicos, y cuyos autores tienen 1minuto para presentarlo (de los 430 papers técnicos que han sido enviados 82 han sido aprobados para Siggraph 2011 y a éstos se suman otros 38 de la ACM ToG).
Estas 2h ayudan mucho a escoger las sesiones que siempre se suporponen.
Tan llena estaba la sala que han tenido que habilitar una “overflow room”, donde se ha transmitido en directo lo que se presentaba en la sala principal.

Overflow room durante la sesión FF papers

Overflow room durante la sesión FF papers

Synthespians: los actores virtuales de Avatar
diciembre 26, 2009

Más de uno me ha preguntado por el significado del nombre de mi empresa: SYNTHESPIAN.
Pues SYNTHESPIAN es la fusión de dos nombres, SYNTHETIC y THESPIAN (se había hablado hace 20 años de Synthetic Pedestrians – peatones sintéticos, pero yo creo que ya hemos dado el salto a “actores sintéticos” y podemos olvidarnos de “peatones”), synthetic porque están generados por ordenador (CG – computer generated), y Thespians porque en EE.UU. se llama “Thespians” a los actores, del griego Thespis, reconocido como el creador del género de la tragedia dramática.
Un Synthespian por tanto, sería algo así como un “Actor Virtual”.
Todo esto salió de mis viajes al congreso de gráficos más importante del mundo, SIGGRAPH, al que voy cada año desde 1994, pero ya antes, en la escuela de cine y en el master de animación por ordenador, pude ver en algunos de los muchos vídeos que visionábamos, la evolución de los personajes virtuales desde las primeras incursiones de los gráficos por ordenador en Mundo Futuro, The Last Starfighter, Tron, Star Trek la ira de Khan e incluso Star Wars IV, pero sobre todo en un anuncio conocido como “Sexy Robot” de Robert Abel, y pongo aquí el enlace a un reportaje de cómo se hizo el anuncio.
Sextone for president de 1988, Don’t touch me de 1989 ambos trabajos de Kleiser-Walczak, El joven Sherlock Holmes, Abyss, Terminator 2 o Jurassic Park de ILM, son claros ejemplos de la evolución incremental en la calidad y realismo de los personajes generados por ordenador, que han ido tomando protagonismo en estos últimos 25 años y que con Jurassic Park en 1993 crearon un antes y un después de los personajes generados por ordenador.
En 1999, mi amigo Gustavo Manzano ya hizo un trabajo espectacular de representación de la cabeza en CGI del escritor Jean Genet, que para los medios y presupuesto con el que contó, fue todo un logro: ver vídeo.
En todos estos años, los synthespians han pasado de rellenar escenas o de hacer de “virtual stunts” (especialistas virtuales), a representar a personajes secundarios o incluso casi a protagonistas: Jar Jar Binks (Star Wars), Davy Jones (Piratas del Caribe 2), Dobby (Harry Potter) o Gollum (El señor de los anillos) o la Dra. Aki Ross (Final Fantasy).
Otros proyectos experimentales como el que hizo Disney Feature Animation en 2002 The human face project pero que no llegó a ver la luz comercial (aunque sí se vio en Siggraph 2002), o una película menor de 2005 como Lemony Snicket (donde aparecía un bebé 100% CGI fotorealista), han sido las primeras representaciones que nos han hecho a los profesionales abrir la boca de asombro.
El pasado año 2008, se presentó en Siggraph un trabajo del laboratorio de I+D del Dr. Paul Debevec y de la empresa Image Metrics: The Emily Project, que ya nos dio a ver que estamos realmente muy cerca de synthespians indistinguibles de la realidad, que llegó a su máxima expresión el pasado año con El curioso caso de Benjamin Button, en el que Brad Pitt es sustituído en su edad anciana y joven por un synthespian.
Toda esta argumentación y estos links son para poder fundamentar mi tesis, y es que lo que hemos visto en Avatar de la mano de James Cameron y de WETA Digital, es una EVOLUCIÓN y no una REVOLUCIÓN en lo que respecta a los efectos visuales y los personajes generados por ordenador.
No hay duda para mi, que una de las secuencias más complicadas técnicamente de toda la película es al final,
[INICIO DE SPOILER] -sólo leer los que hayáis visto la peli o no la queráis ver-
cuando Neytiri salta al interior del laboratorio móvil y ayuda a Jake ya en el suelo. La escena de ella llorando, y él tocándole la cara, es de una perfección no alcanzada jamás hasta esta película, si pensamos que hay un actor real (él) y un synthespian (ella). Además, es una escena muy emotiva, que conecta totalmente con la audiencia y que nos da oxígeno también a nosotros, que estábamos casi asfixiados por los acontecimientos vistos.
[FIN DE SPOILER]
y ésta secuencia es también para mi la mejor secuencia de VFX no sólo de Avatar, sino de toda la historia del cine hasta Diciembre de 2009.
En varias ocasiones nos han “colado” varios actores virtuales sin que nos hayamos enterado (en Spiderman, Superman, Star Wars, Matrix, …), pero en Avatar, la integración es magistral, aunque aun a un coste de tiempo y dinero fuera del alcance de los demás, pero que a buen seguro y en muy poco tiempo, será aplicable a los anuncios de la TV y a las producciones independientes.
Respecto a la técnica de animación, se ha usado el “performance capture” o también llamado “e-motion capture”, para diferenciarlo del “motion capture”.
Esta técnica parte de los movimientos de personajes reales que son transferidos a los synthespians mediante diferentes técnicas de marcadores o sensores. La diferencia básica del “motion capture” al “performance o e-motion capture” es que en estos últimos sistemas se intenta no sólo transferir el movimiento del actor sino también la interpretación, gestos de la cara, y las más delicadas arrugas de la cara. La evolución ha sido también monstruosa desde las primeras experiencias de Robert Zemeckis en Polar Express (2004), Monster House (2006), Beowulf (2007) y Cuento de Navidad (2009). En Avatar, se han colocado minicámaras que captaban cualquier expresión de la cara del actor y que luego se traspasaron a su correspondiente synthespian. De algún modo, lo que hacen los personajes de la película con sus avatares, es lo que hicieron los actores con sus synthespian en el plató.
Aun queda bastante para llegar a la ficción que Al Pacino interpretó en S1m0ne, pero algunos de los “inconvenientes” de tener a actores virtuales como protagonistas ya se pudieron intuir en la película. Por cierto, en la película había una actriz real: Rachel Roberts.

Solucionado el problema del rolling shutter
agosto 7, 2009

En el último curso del Siggraph, Simon Robinson ha explicado su solución comercial al problema del rolling shutter que sufrimos todos los que tenemos cámaras basadas en tecnología CMOS (desde móviles a las RED One, pasando por todo tipo de cámaras como las SLR que ahora graban vídeos).
El plug-in vale $500, y funciona en Nuke, que tampoco es un software gratuito 😉
Para l@s que estéis despistad@s sobre lo que es este problema, podéis ver este vídeo.
Para más información sobre NUKE, podéis visitar la web the “The Foundry”.

Siggraph … ¿y eso qué es?
julio 30, 2009

Debido a la anulación de mi acreditación de prensa en Siggraph 2009, no haré ningún informe ni comentario alguno sobre este evento, al contrario de lo que había hecho en los últimos 10 años durante los que he cubierto el congreso como prensa y otros 5 más en que fui como profesional independiente.

Estaré unos días que no actualizaré este blog al no tener acceso a internet, y hasta que no me llegue un iPhone 3GS o un Nokia N97, me temo que no podrá ser posible la actualización desde mi móvil por la experiencia nefasta de usar un móvil con Windows Mobile como el que SUFRO yo ahora.

Acreditación de Siggraph 2009 denegada – HELP!
junio 17, 2009

Querid@s lector@s de mi blog:
quería comentaros que hoy me ha llegado la comunicación oficial de que no aceptan mi credencial para cubrir el Siggraph 2009 como medio escrito (lo había hecho durante 11 años).
Esto significa que no podré usar este blog para hablaros del Siggraph ni hacer los resúmenes que suelo hacer.
Eso sí, si en lugar de ser un blog esto fuera una web, seguramente me habrían dado la acreditación, y ni que decir tiene, que si una revista me enviara, seguro que también me darían la acreditación, pero entonces, tendríais que leer mi crónica en esa revista.

Si queréis que vaya e informe del Siggraph desde este blog, os pido que hagáis un comentario a esta entrada y pongáis al menos un nombre (no es necesario poner DNI o pasaporte que igual alguien utiliza esos datos).
Otra opción es que escribáis un email a la señora/señorita Autumn Wolfer de la empresa smith & bucklin. Ruego que el tono sea amigable y reivindicativo si es que os interesa a alguno que cubra el evento. Desde luego que si le llegan 2 emails no haremos nada, si son algunas docenas, quizás sí.

Pase de U2 3D en condiciones mejorables
octubre 20, 2008

Hoy he ido a la sala 3D (sala 15) del Cinesa Herón City de Barcelona, y la verdad es que la proyección no ha sido lo buena que debería de ser.
Lo digo con razón de ser, porque la película la he visto dos veces, una el año pasado en Amsterdam con motivo del IBC y otra vez este año en Los Angeles con motivo del Siggraph.
Tanto en Amsterdam como en LA estaban presentes los propios técnicos de 3ality digital (los que han realizado el rodaje en 3D), además de los técnicos de Christie Digital (proyectores) y Real D (sistema 3D de proyección), por lo que se entiende que la proyección en los dos lugares fuera perfecta.
Aquí, entiendo que se calibró el sistema de manera estupenda cuando se puso en funcionamiento, pero hoy, los problema de ghosting eran terribles, sobre todo en los planos de los artistas que tienen paralaje negativo.
La otra sala 3D de Barcelona, Cinesa La Maquinista, no sé cómo está. Fui a ver Beowulf y me pareció bien, pero de eso hace casi un año.
PD: alguien me dijo que si traías las gafas 3D, te descontaban 1€ del precio de la entrada. No es cierto, al menos en esta sala, ¡pero podrían hacerlo!. Ahora ya tengo 8 gafas de Real D en casa.

Aun poniéndome al día …
agosto 23, 2008

Esta semana, recién llegado de Los Angeles, me tiene aun un poco fuera de lugar.
Por sólo 5 días sin leer el correo, casi 2.000 emails, la mayoría SPAM, al fin estoy al corriente.

Con la puesta en situación, me he conectado a ver las diferentes pruebas olímpicas de los juegos de Pekín, y ayer y hoy he estado también viendo la Fórmula 1, y poniendo las cuentas del banco en orden.
Del tema de la Fórmula 1, por desgracia mi cámara ya estaba estropeada cuando yo conduje el Williams Toyota FW30 en el simulador de F1 que había en el stand de Lenovo en Siggraph, pero os paso la foto que hice el día anterior a mi “decepcionante” debut en un monoplaza de F1.

Williams Toyota FW30 en el stand de Lenovo, en Siggraph

Williams Toyota FW30 en el stand de Lenovo, en Siggraph


La semana que viene, tengo 3 pases de prensa. Serían 4, pero no iré al de “Clone Wars”, porque ya la vi en Los Angeles y no la veré una segunda vez y menos, en 35mm.

De regreso a casa + The Clone Wars + El caballero oscuro
agosto 18, 2008

Siento mucho no poder haber escrito noticias desde el jueves (miércoles en EE.UU.), pero me desapareció la fuente de alimentación de mi portátil y me quedé sin batería. Además, desde la proliferación del WiFi, no hay cibercafés (al menos en el downtown de Los Angeles), ni tampoco ordenadores para conectarse desde el Convention Center.
Ahora que he regresado a casa voy a recuperar las noticias pasadas, y las iré publicando con fechas atrasadas para no interferir con el suceso normal de las noticias, añadiendo las fotos pendientes de publicar.
Para más desgracia, la cámara compacta que llevaba también se estropeó (podréis ver lo que ocurre ahora al hacer la foto), y no he podido hacer más fotos de una calidad aceptable desde el jueves.

En lo positivo, un SIGGRAPH de lo más interesante en cuanto a los contenidos y algo pobre en cuanto al exhibition.

Comentaros también algunas cosas:
1) qué maravilla que en el centro de Los Angeles haya al menos tres restaurantes que abran 7×24, y también qué maravilla que los bancos estén abiertos hasta las 6 de la tarde e incluso los sábados. Lejos estamos de este tipo de servicios en España.
2) El jueves por la noche vi en el Nokia Theater “The Clone Wars”. Lamentable. Mi puntuación 0 de 5. Qué bajo ha caído George Lucas al dejar salir esta producción de tan baja calidad.
3) El sábado fui a los estudios Universal y me pasé por el cine IMAX a ver “El caballero oscuro”. Obra maestra de Christopher Nolan. Mi puntuación 5 de 5. Una vez más lamentable que no se pase en IMAX en Madrid y Barcelona. La primera secuencia, prácticamente todas las secuencias de la persecución final y en general los planos generales de Gotham, están rodados originalmente en IMAX y son espectaculares. En los cines que se proyecte en formato panorámico 2,35:1 se perderá la verticalidad de las imágenes originales. Una pena.

Sin portatil y no podre actualizar el blog en unos dias
agosto 15, 2008

Me ha desaparecido la fuente de alimentacion de mi portatil, y como la bateria se ha agotado, no puedo actualizar el blog ni enviar emails.
Ademas, por una razon extranya, la camara de fotos digital ha dejado de funcionar de forma correcta y toma fotos sobre expuestas o con un ruido horrible.
Esta claro que ayer no fue mi dia.
Ademas, desde que hay wifi y todo el mundo lleva portatil, ya no hay pc’s para conectarse a internet, y hoy acaba SIGGRAPH, asi que no podre actualizar el blog en unos dias (cuando llegue a Espanya tendre que buscar un adaptador de bateria para mi portatil), ni publicar las fotos que estan en el portatil ni mis notas sobre el tercer dia y siguientes … asi que tendremos que posponer las actualizaciones. Siento el inconveniente a los fieles lectores de mi blog.
Mi blog de cine.com, ni siquiera tengo el password de acceso apuntado, asi que no puedo actualizarlo.
Hasta pronto!

Siggraph 2008: día 3
agosto 14, 2008

1ª sesión 08:30 – 12:30
OpenGL: what’s coming down the pipeline
Entre otros temas se han comentado las mejoras de la última versión de OpenGL:
Fixed-function pipeline (versiones iniciales) vs Programmable pipeline (última versión)
Modificar parámetros y llamar a funciones.
Ahora hay un Vertex shader (pequeño programa que toma el trabajo del “Transformation Stage”) y el Fragment shader (idem “Rasterization Stage”).

12:00 – 13:30 Birds of Feather
Legal and Business Issues Faced by Emerging Companies in the Computer Graphics and Interactive Communities
Preguntas muy concretas sobre temas de Propiedad Intelectual contestadas por un bufete de abogados especializado en tecnología y PI.
Había una especial preocupación sobre las creaciones de las personas cuando trabajan en las corporaciones, y sus derechos sobre lo que crean, repetido por los abogados que las empresas “te absorben” y al pagarte un sueldo se quedan con todos los derechos de PI. También de habló de Trade Secrets, Copyright, TradeMarks y las consecuencias de usar Open Source en la PI.

13:45 – 15:30
Building an Animation Studio
Una experiencia de LightStream Animation contada por sus fundadores, y cómo salieron de sus trabajos en ILM. Muy rocambolesca, muy meditada, muy preparada, por si la empresa llega a crecer y funcionar bien. Lo que está claro que los cimientos son buenos porque han sido pilares en sus respectivos departamentos en ILM y de experiencia no les falta.

14:00 – 15:00 nVIDIA developers meeting
Nuevas utilidades para poder depurar aplicaciones que trabajen con la GPU de forma intensiva.

15:45 – 17:30
Many Things

  • Shade the many: cute solutions for shading crowd characters on Pixar’s Wall·E
    Se hicieron 4 pases para controlar el aspecto degradado de algunos de los robots (óxido, rayaduras, etc). Un equipo de 4 TD’s tuvo que desarrollar el look de casi 400 robots en 3 meses. Usaron modelos modulares.
  • Beyond Procedurally Modeled Foliage in Madagascar: Escape 2 Africa.
    DreamWorks explicó los problemas que encontraron al trabajar con sistemas procedurales de generar vegetación. Tuvieron que generar un sistema mixto de creación usando sistemas procedurales modificables manualmente y teniendo control creativo.
  • A.I. Cars for Speed Racer
    En Digital Domain usaron Massive para animar los coches de la pista de carreras. Al final, después de varios meses de trabajo, se decidió no usar nada en los planos finales
  • Brain Springs: Fast Physics for Large Crowds on Wall·E
    Han explicado cómo han hecho los movimientos de levitación de los robots en la nave estelar.

User Group de PIXAR
Una vez más había coincidencia de eventos, en este caso con el BOF de Open GL y las “Studio Nights”. Me he podido quedar un breve ratito y me he perdido el 90% del user group.

20:00 – 23:00
Animation Theater Studio Nights: A Tribute to Stan Winston.
Toda una serie de fragmentos de los cientos de criaturas legendarias que ha creado Stan Winston a lo largo de su trayectoria profesional ha sido proyectada en el Nokia Theater: Terminator, Jurassic Park, Depredador, Alien, el hombre lobo, el planeta de los simios y tantos otros. Ken Ralston ha hecho el discurso inaugural, con unas palabras muy emotivas recordando al malogrado genio de los animatronics.
Ken ha dado paso a Jody Duncan, editora de la revista Cinefex, que ha dado un dato muy interesante: de los 114 números que lleva su revista, Stan Winston o su estudio aparece en 30 números. El hijo de Stan Winston, Matt Winston, entrevistado por Jody, ha explicado detalles de su vida como niño siendo asustado por su padre mientras se probaba las máscaras de hombre lobo y de monstruos varios. También ha comentado su pasión por su trabajo. Como anécdota ha recordado el regalo que su padre hizo a Arnold Schwarzenegger por su 50 cumpleaños, un gran amigo desde que trabajaron juntos en Terminator: un busto del ahora gobernador de California fumando un habano, pasión que ambos compartían y también el comentario de Maria Shriver, esposa de Arnold: “Stan, ¡no sabía que fueras un artista!” a lo que replicó “¡Y qué crees que estado haciendo todos estos años!”. Tras estas pequeñas anécdotas, uno de los supervisores de VFX Stan Winston Studios, Shane Mahan y uno de los supervisores de animación, John Nelson, han hablado del estudio y de la personalidad de Stan. También han anunciado que el nombre del estudio desaparecerá con la muerte del creador y pasará a llamarse Legacy Effects.
James Cameron ha aparecido a continuación, y ha comentado su relación con Stan Winston y también que llegó a hablar con él 3 días antes de su muerte. James ha comentado muchísimos detalles de su trabajo en Terminator y Terminator 2, destacando lo arriesgado de los efectos en la época, con 150 planos de efectos y 43 de efectos digitales, algo de risa para los 1500 planos de efectos digitales que son lo estandar de estos días, y ha dado paso a la proyección de digital de T2, que ha sido memorable (¿parece que desde un simple master en Blu-ray?)