Le FMX 2016 vient tout juste de s’achever et comme chaque année, nous avons pu en prendre plein la vue pendant quelques jours. Réunissant étudiants et professionnels du monde entier, le FMX est une merveilleuse vitrine du meilleur des effets spéciaux et de l’animation produits dans l’année, un véritable “state of art” de la discipline, au sens large du terme.
En plus des traditionnels making-of et études de cas, la direction éditoriale s’intéresse aux évolutions des techniques liées à la fabrication de contenu. VFX, Virtual Production, Animation, mais aussi Jeux vidéos, ouvrant ainsi d’années en année une fenêtre toujours plus importante sur les technologies liées au temps réel et à leur intégration dans les pipelines de production de film. Justement, le développement des techniques de “Virtual Production” et tout particulièrement celles liées à la réalité virtuelle, apportent depuis quelques d’années au salon une dimension encrée plus que jamais dans les problématiques de production actuelles.
Préviz, techviz , postviz, moteur de rendu précalculé et temps réel, nouvelle génération de capteurs et de caméras, sans parler des possibilités d’hybridations technologiques, tout un écosystème qui partage et mélange ses expériences pendant 4 jours à Stuttgart. Voici un rapide tour d’horizon de ce programme 2016, toujours aussi dense que complet.
Réalité virtuelle - En 2016, l’aventure continue…
Si l’édition 2015 s’ouvrait généreusement aux mondes immersifs et à la réalité virtuelle (RV), cette année persiste et signe avec cependant un regard plus mature sur le sujet. Fini l’extase des débuts, il est maintenant l’heure de poser des questions concrètes et d’y répondre : quelles formes de narration ? Quels types d’expérience ? Quelles technologies ? Quelles hybridations et pour apporter quoi ?, etc. En épluchant le programme, on comprend vite que la réalité virtuelle, outre son attrait évident pour n’importe quel créatif même le plus sceptique, se place à la fois comme un agrégateur des techniques existantes, mais aussi comme un fantastique accélérateur technologique.
Même si nous n’en sommes qu’aux prémices d’une nouvelle ère, avec la sortie récente des premières générations de casques on constate que de plus en plus d’acteurs sont déjà dans la course. La révolution virtuelle apporte ainsi son lot d’évolutions et de nouvelles interrogations quant à la manière de partager un univers, ouvrant plus que jamais le champ des possibles pour les créateurs et les utilisateurs. En RV, l’Immersion offre une position d’action centrale, les metteurs en scène et les réalisateurs vont devoir repenser totalement leur approche narrative. Ce rôle change radicalement et se rapproche presque de celui de l’auteur qui se contente de poser un contexte, l’accompagnant sans diriger. Il ne tient donc plus directement la caméra et doit s’effacer pour mieux laisser vivre son univers. L’utilisateur vit l’expérience à la première personne et plus à travers un cadre jusque-là imposé par un tiers. On réalise également que le « son » prend une tout autre ampleur et qu’il aurait presque tendance à se substituer au rôle de la caméra pour guider l’attention du spectateur. Pour avoir discuté avec plusieurs studios, ils nous confient que sur des projets en live ou en animation, l’équipe de production doit désormais repenser son organisation. En plus du traditionnel réalisateur en charge des images, il faut désormais compter sur un réalisateur “son”, l’audition devenant un sens aussi important que la vue pour guider l’immersion, quelle que soit sa nature.
Outre les questions liées à la narration, la technologie n’en est qu’à ses débuts elle aussi. Les techniques de capture, de projection, d’affichage, les GPUs, tout va continuer d’évoluer à grande vitesse, et il faut garder en tête que nous sommes qu’à l’an 0 de la discipline, ou +1 ou 2 diront certains, mais cela ne change rien au fait que nous n’en sommes qu’aux préliminaires préhistoriques, et nous n’évoquons même pas ce que l’on pouvait voir à Imagina il y a 25 ans.
Quand on se souvient du cinéma de Georges Mélies et que l’on regarde des films tournés 10 ou 20 ans plus tard, les différences ne sont pas flagrantes ; le cinéma a mis plusieurs décennies à s’émanciper tenant compte des aléas technologiques et de la créativité des réalisateurs. Si nous n’attendrons donc sans doute pas 100 ans pour profiter d’une expérience virtuelle totalement immersive, voire même transcendantale, restons encore un peu patients, il y a largement de quoi s’occuper pour le moment !
Technologies et recherches
High-Quality Capture of Eyes
Pascal Bérard, chercheur chez Disney, a présenté une impressionnante machine dédiée à l’acquisition de données oculaires. S’il confie volontiers que l’engin mis au point avec son équipe fait peur et semble tout droit tirée du film Orange mécanique, il permet d’acquérir et de recréer le plus fidèlement possible l'œil humain en le scannant à partir de différentes photos, globe oculaire et muscles de l'iris compris.
Il récupère toutes les géométries, les textures, mais aussi la façon dont se contracte l'iris, et encore plus. Après avoir scanné des centaines de modèles, ils ont constaté que l'œil n'est pas totalement rond comme on pourrait le penser ; il dispose d’une surface qui s’aplatit en se rapprochant du nez. Après plusieurs centaines de scans, lui et son équipe ont réalisé que l’œil humain est d’une très grande diversité, et que les infographistes et les superviseurs VFX doivent en tenir sérieusement compte s’ils veulent accroitre le réalisme de leurs personnages.
Publiée l’an dernier, la vidéo ci-dessous vous permettra de mieux comprendre ses travaux :
LYTRO CINEMA,
Les Lightfields ou le futur de la vidéo et des VFX
Présentée il y a quelques semaines et déjà évoquée dans nos colonnes (1 – 2 http://www.3dvf.com/actualite-16439-lytro-cinema-une-camera-light-field-cinema-et-television.html http://www.3dvf.com/actualite-16495--technologie-lytro-cinema-va-t-elle-revolutionner-effets-speciaux-.html), la technologie Lightfields mise au point par la société Lytro pourrait bien bouleverser prochainement la manière de faire des effets spéciaux et même du cinéma en général.
La caméra Lytro capture chaque pixel (couleur et profondeur) d’une scène sous différents angles (imaginez un boitier géant dans lequel au aurait regroupe une vingtaine d’objectifs, ou plus, en hauteur et en largeur). Une fois les données assemblées, on se retrouve avec des rushs pouvant atteindre 755 Mpixel à 300 images secondes, mais comptez quand même 80 To de données par minute. Une fois le plan tourné, le réalisateur peut ainsi recréer tous les plans qu’il désire en utilisant une caméra virtuelle (au montage, ou via une tablette ou un autre système de « virtual production »), qu’il ne restera plus qu’à retravailler si besoin au montage ou en postproduction. Le résultat obtenu permet de modifier le point de vue (dans une certaine mesure), ce qui s’avère idéal pour créer des contenus avec effets parallaxe pour les casques de réalité virtuelle. Avec ce système, à partir d’une même séquence on peut résoudre de nombreux problèmes liés à la capture et la retouche stéréoscopique en créant un rig relief virtuel. Le relief pourrait ainsi être créé et traité après le tournage ! Mais ce n’est pas tout. Les données générées permettent aussi de faire de la vidéogrammétrie en temps réel, générant aussi un volume 3d de la scène, idéal pour intégrer rapidement des éléments en 3d ou tout autre trucage mêlant réel et numérique. Pour terminer, la prise en compte de la profondeur donne aussi la possibilité d’effacer ou d’isoler n’importe quel élément en fonction de sa position dans la scène ; une sorte de Graal du keying !
Voilà un très rapide aperçu des possibilités offertes par ces nouvelles caméras, mais on peut sans doute déjà parler de révolution. Si elles ne seront commercialisées qu’en fin d’année pour un peu plus de 100 000 €, on peut déjà se faire une idée très claire de leur potentiel, même s’il reste encore à résoudre les problèmes liés à la masse de données générées et la manière de les utiliser confortablement.
SOLID ANGLE | ANORLD
Nous avons eu le plaisir de croiser Marcos Fajardo, le créateur du moteur de rendu Arnold, qui se souvenait bien de 3DVF, car nous l’avions interviewé à ses tout débuts (et aux nôtres aussi !), il y a 16 ans. Arnold n’était alors qu’un très jeune moteur ; à l’époque, l’équipe de Mikros a été l’un de ses premiers clients et le studio l’avait mis à l’épreuve sur la séquence de la Grande Roue du film « Le Boulet ». Que de chemin parcouru depuis ! Après toutes ces années de labeur, la reconnaissance est au rendez-vous, de nombreux studios l’ont aujourd’hui adopté dans leur pipeline et la récente acquisition de sa société SolidAngle par Autodesk en témoigne.
D’ailleurs, depuis l’annonce, cette nouvelle a pas mal inquiété la communauté et sachez nous avons réalisé une interview vidéo en sa compagnie et nous là nous publierons d’ici la fin du mois. Il revient justement sur ce sujet, mais notez déjà qu’il s’est monté rassurant et même très confiant, en insistant sur le fait qu’Arnold ne sera pas utilisé pour autre chose que des projets d’animation et des effets spéciaux. A suivre très bientôt !
RENDERMAN 21
Présent presque tous les ans FMX, nous avons eu le plaisir de croiser notre vieil ami Dylan Sisson, l’un des grands spécialistes de Renderman chez Pixar’s Renderman A travers plusieurs sessions de présentations durant les 4 jours du salon, il a présenté les nombreuses nouveautés apportées par la version 21 du célèbre moteur. Cette version a notamment été utilisée sur le prochain film du studio annoncé pour le mois prochain : Finding Dory.
Si la version bêta est disponible depuis déjà quelques mois, la version finale devrait arriver d’ici à cet été, et l’équipe de développement confie qu’il s’agit là de l’une des versions les plus importantes depuis des années.
Nous avons déjà eu l’occasion d’évoquer quelques-unes des 60 nouveautés apportées par cette mise à jour avec notamment l’évolution de l’algorithme de rendu RenderMan’s RIS et l’intégration en standard d’une collection de shaders BxDF utilisables aussi bien pour du rendu cartoon que pour des effets spéciaux hyperréalistes.
Si vous avez des questions sur cette prochaine version ou sur Pixar’s Renderman en général, notez que l’équipe de Progiss (distributeur de Pixar’s Renderman en France) se tient à votre disposition pour répondre à vos questions ou vous organiser une démo. Dans tous les cas, nous ne manquerons pas d’y revenir en détail lors de sa sortie !
Dreamworks Animation - Kung Fu Panda 3
Nous avons pu assister à une présentation des studios Dreamworks Animation avec une présentation de Max Boas (directeur artistique) et Raymond Zibach (Production designer) revenant sur leur travail sur le troisième volet de la saga King Fu Panda. Ils étaient venus présenter la préproduction de ce nouveau film d’art martial animalier.
Ils ont dévoilé de nombreuses planches de recherches et se sont attardés sur leurs sources d’inspiration. Ils sont notamment allés puiser dans d’anciennes estampes chinoises de paysages, mais également dans des films d'art martial tels que Hero, Crouching Tiger, Kung Fu Hustle, et même Kill Bill pour le ton du film. De nombreux paysages de lieux emblématiques de la Chine tels qu’Huangshan, Zhangjiajie, Qing Cheng Shan, Guilin ont aussi été utilisé comme référence dans le film. Encore une fois bercé de culture zen, le symbole du Yin et du Yang a également été utilisé à de nombreuses reprises et il revient de manière plus ou moins subtile dans la composition de nombreux plans.
Pour ce qui est des environnements, après plusieurs discussions avec les équipes d’infographistes, les nombreux matte painting n’ont finalement pas été transposées en décors 3d et sont restés de véritables peintures dans le film final.
Pour le personnage de Kai, les départements de cloth, hair et rig ont eu du fil à retordre au fur et à mesure que ses attributs se validaient : collisions de cheveux sur sa cape, 4 bras avec des chaines trainant derrière lui, etc. Pour les chaines justement, ils ont créé un setup dynamique qui permettait de modifier sa longueur, sans pour autant que cela se voit à l’écran. Selon les besoins de chaque séquence, ils les allongeaient ou les réduisaient.
Nous avons eu l’occasion de discuter avec l’équipe de l’actualité relative au rachat du studio par Comcast. Ils ne semblaient pas du tout inquiets quant à l’avenir du studio. Ils sont en production sur plusieurs films, dont quelques suites, donc cette nouvelle n’aura de toute façon aucune incidence sur leur planning des 24 prochains mois. Ils ont évoqué le rapprochement assez similaire qui a eu lieu entre Disney et Pixar, et finalement ils s’apportent mutuellement plus que se nuisent.
Inside Out / PIXAR
Retour sur les caméras et leur implication narrative.
Directeur de la photo depuis presque 20 ans chez Pixar, Patrick Lin a présenté les différents aspects créatifs de composition des plans et l’utilisation des caméras sur le long-métrage Inside Out. Comme toujours chez Pixar, les couleurs, les formes, la lumière et les cadres sont intimement liés à la narration, et c’est toujours passionnant d’assister à une étude approfondie de leurs films.
Il a expliqué comment le studio a défini les cadrages sur ce projet, en immisçant la camera en plein cœur de la narration, comme s’il s’agissait d’un acteur parmi les autres personnages. Ils ont d’ailleurs travaillé comme s’il s’agissait de caméras réelles, avec toutes les contraintes que cela implique. Dans leur processus de travail, ils commencent tout d’abord par trouver les cadrages possibles dans le décor, en fonction de l'action de la séquence, puis viennent composer l’image, réarranger les éléments ou la position des personnages. Il en parlait comme s’il s’agissait d’une danse entre les personnages et la caméra.
Concernant ce langage narratif incarné par les caméras, le film montre deux univers bien distincts : le monde intérieur et le monde extérieur. Cela implique donc des outils visuels qui permettant de marquer les différences : In/Out, imaginaire/réel, Perfection visuelle//imperfection, moins ou pas de distorsion de lentille/plus de distorsion de lentille
Mouvement mécanique/ Mouvement organique (steadycam, handheld), etc.
On note ainsi une véritable progression visuelle tout au long du film, avec une évolution dans les échelles des décors et objets présents dans chaque scène, mais aussi dans les cadrages selon l’état mental du personnage de Riley. Patrick a ainsi présenté plusieurs graphiques qui permettent de voir et de comprendre l’évolution et les transitions entre chaque scène principale :
"The Peanuts Movie": Character Development from Comic Strip to 3D
Sabine Heller, superviseuse du développement des personnages chez Blue Sky, est intervenue pour parler du travail accompli par le studio pour retranscrire fidèlement l’univers de Charles Schulz en 3d. En effet, l’équipe a rencontré de nombreuses problématiques pour coller à l’univers original, sans pour autant le dénaturer. En effet, transcrire une bande dessinée en animation en 3d soulève de nombreux soucis, notamment pour l’anatomie des personnages dont les formes changent selon leur orientation par rapport à la caméra. Blue Sky a ainsi dû développer des outils pour que le nez, les yeux, oreilles et la forme des visages change automatiquement de position selon l’orientation du personnage. Ils ont aussi fait en sorte de n’utiliser que des focales longues pour éviter de rendre trop perceptible cette tricherie visuelle.
Un autre changement radical concerne les setups et l’animation des personnages. En effet, ils n’ont utilisé aucun blendshape, mais ont mis au point une technique basée sur les UV. Les différentes poses clés sont faites sur une géométrie aplatit en 2D comme des UV, puis sont reprojetées sur la shape d’origine. Une approche aussi originale qu’ingénieuse, qui offre en prime un résultat convaincant !
Pour les personnages, d’autres problèmes sont intervenus sur la jonction entre la tête et le cou, celle-ci n’étant jamais fixe et bouge selon la silhouette que souhaite obtenir l’animateur. Si le fait de supprimer ce lien a permis d’offrir une grande souplesse artistique aux animateurs, cela a généré des problèmes sur le rendu de la peau avec les shaders SSS. Les superviseurs ont donc dû créer un plug-in permettant de remplir le volume manquant, afin de ne plus remarquer ce lien entre le cou et la tête.
Concernant l’animation des vêtements, tout est animé à la main, avec seulement quelques outils développés pour faciliter la tâche aux animateurs, notamment sur la gestion des intersections et des collisions.
Un dernier point concerne la création des effets de motionblur 2D en 3D. Pour parvenir à un résultat convaincant, ils ont ajouté des lignes superposées à l’image, ainsi que des membres fantômes.
Pour ces derniers, plutôt que de modifier les différents rigs existants (plusieurs milliers !), ils ont mis au point une technique qui permettait d’importer des duplicatas du personnage afin de superposer les zones du corps animées, et sélectionner les poses et les mouvements désirés. Là encore, si vous avez vu le film, le résultat fonctionne.
Star Wars : The Force Awakens
Évènement majeur de la fin 2015, le FMX ne pouvait pas passer à côté du dernier Star Wars, d’autant plus avec les récentes annonces de Disney concernant la mise en chantier de plusieurs nouveaux films. Dans le cadre d’une table ronde, les artistes Patrick Tubach, Paul Kavanagh, Mike Mulholland et Kevin Jenkins du studio ILM ont présenté pendant près de deux heures de nombreux effets spéciaux réalisés sur le film.
Nous avons pu découvrir les différentes versions mécaniques de BB-8 conçus et utilisés pour répondre aux besoins du tournage. Un avec le conducteur à droite, un autre à gauche, un qui bouge particulièrement bien sa tête, etc. Chaque séquence faisant appel à la déclinaison du BB-8 le plus approprié en fonction des contraintes de la scène. Au final, c’est 7 déclinaisons différentes qui ont été utilisées durant la production.
Ils ont aussi essayé de lui faire monter des escaliers en lui faisant sortir des tubes et des plaques de son corps, mais ils ont très vite arrêté cette piste : "No, you don't want pointy things going out of BB-8" (« non, vous ne voulez pas voir des objets pointus qui sortent du corps de BB-8 »).
Comme presque toujours dans ce genre de conférence, il est strictement interdit de filmer ou de prendre la moindre photo, mais nous avons également pu profiter des superbes breakdown dévoilant l’envers du décor de la création du personnage de Maz Kanata ou encore du vaisseau impérial long de 5km. Ces séquences devraient être disponibles dans les bonus de l’édition Blueray du film et sans doute sur la toile prochainement.
Notons pour terminer l’une des différences majeures apportées à ce nouveau film par rapport à ses prédécesseurs, c’est que les sabres lasers étaient de véritables reconstitutions fabriquées avec des LED intégrés. Les acteurs avaient ainsi la liberté d’interagir avec le décor ou avec n’importe quel autre élément. Ainsi, les équipes VFX ont pu directement utiliser les impacts lumineux et les réflexions, sans pour autant que les sabres ne génèrent d’ombres. Astucieux à tous les points de vue, cette nouveauté a permis d’économiser un temps précieux en postproduction.
The Jungle Book
Nous avons aussi eu la chance d’assister à une paire de conférences revenant sur l’incroyable travail du studio MPC sur son adaptation par Jon Favreau du légendaire film d’animation de Walt Disney, le livre de la Jungle.
Ces présentations étaient animées par les superviseurs VFX Rob Legato et Adam Valdez. Ils sont revenus sur les nombreuses étapes de production du projet, et l’impressionnante masse de travail accompli. Le choix du full CG aurait été justifié par l’utilisation du relief et des problématiques de tournage que cela aurait généré. Finalement, seul l’acteur principal, le jeune Neel Sethi qui incarne le personnage de Moogli a été filmé en live pour la plupart des séquences. Cependant, une doublure numérique a tout de même été réalisée afin d’éviter tout danger dans les plans potentiellement délicats ou acrobatiques, mais aussi pour certains raccords compliqués avec les éléments numériques, notamment la séquence avec le troupeau de buffles qui lui fonce dessus, mais qui lui permet aussi d’échapper au tigre Shere Khan…
À part peut-être Avatar, nous avions rarement pu observer une telle maturité dans le pipeline de « virtual production ». Les quelques vidéos exclusives présentées aux spectateurs ont dévoilé en détail le processus de conception de plusieurs scènes. Préviz/techviz, live action dans des décors sommaires avec écrans et bâche verts ou bleus selon les scènes, avec retour de techviz/previz au tournage, puis assemblage de ces données avec les différentes passes de rendu et de compositing, conformation des lumières, étalonnage… Ils se sont notamment attardés sur le travail de préparation des tournages, avec la coordination des équipes de previz, techviz, prod, vfx....
Nous avons aussi pu avoir un aperçu de l’immense travail de documentation et de création qui a permis de donner vie à cette jungle hyperréaliste. Plus de 800 artistes sont intervenus pour venir à bout des 1200 plans qui composent le film. Le projet comprend 238 décors, 54 espèces animales spécifiques déclinées en 224 variations et plus de 500 éléments de végétations. Pour la création de la faune et la flore, les graphistes ont largement fait à des outils de photogrammétrie pour constituer leur base de travail. Au final, le projet cumule plus de 1984 To de données et 240 000 000 heures de rendus pour les 95 minutes de film.
Nous avons aussi pu assister à quelques séquences dévoilant la création du roi orang-outan incarné par l’acteur Christopher Walken. Les équipes se sont basées sur les traits de son visage, en recréant ses rides, plis et propriétés de la peau, pour enfin les transposer sur les traits du visage du roi singe, et utiliser aussi cette matière pour la mise en place du rig d’animation.
Sorti il y a quelques semaines, le budget du film est estimé à 175 millions de dollars, et en a déjà généré plus de 600 au boxoffice mondial. De quoi rassurer les producteurs, qui ont apparemment déjà lancé la préproduction d’une suite se déroulant avant l’histoire de ce premier film. Ils ont aussi réalisé quelques séquences en réalité virtuelle, et notamment une immersion en plein cœur du palais des singes.
Hellblade : La création du personnage de Senua
Nous avions relayé il y a quelques semaines la cinématique d’introduction du jeu Hellblade dévoilée lors de la dernière GDC. Si l’on ne sent pas forcément compte au premier coup d’œil, il s’agit là d’une superbe démonstration technologique mise au point par une dizaine de personnes issues des studios Ninja Theory, Cubic Motion, 3Lateral et Epic.
Arrivé quelques minutes en retard dans la salle, les yeux rivés sur l’écran principal, nous pensions simplement assister à la diffusion de la fameuse cinématique, mais en baissant le regard sur la scène nous avons réalisé qu’il s’agissait bien là d’une démonstration en motion capture temps réel tournant directement dans le Unreal Engine. Une actrice était équipée de deux caméras miniatures positionnées devant le visage pour tracker la position de ses pupilles, des traits de son visage et même de ses afflux sanguins ! Toutes ces informations sont ensuite réinjectées sur le modèle de Senua, le personnage du jeu créé à partir des données physiologiques de l’actrice (géométrie, poses clés du visage et textures issues de photos polarisées…). Un impressionnant travail d’acquisition et de reprojection de données, qui tourne pour finir parfaitement dans un moteur temps réel. Le niveau de réalisme et la qualité des émotions sur l’avatar numérique se révèlent impressionnants.
C’était aussi l’occasion pour Epic de dévoiler son tout nouveau shader de peau hyperréaliste, qui vient ainsi renforcer la crédibilité de l’animation. Ajoutez à cela un nouveau système de texture animée, qui a aussi permis à l’équipe de créer un effet de peinture craquelée sur la peau, qui évolue en fonction des mouvements du visage.
Cependant, il y a beaucoup de travail derrière toute cette démonstration, et ils nous ont expliqué le long et fastidieux processus de capture et de création de l’avatar dans Maya, la création d’outils développés spécialement pour récupérer et réutiliser les données, et même la création d’un pont direct entre Maya et Unreal ! Il s’agit là d’un étonnant projet qui va bien plus loin qu’une innocente cinématique, et qui ouvre de belles perspectives pour de futures productions devant allier performance temps réel et rendu hyperréaliste.
Vous pouvez voir ou revoir le trailer de Hellblade, ainsi que la conférence « Digital Humans: Crossing the Uncanny Valley in UE4 » organisé à la GDC en mars dernier.
Comment postuler chez Pixar,
ou quelques conseils pour mieux vendre son travail
À travers la conférence “Creating a Compelling Technical Director Reel & Resume”, les artistes Pam Choy et Peggy Dollaghan du studio Pixar ont expliqué en détail la manière dont le studio analysait les très nombreuses bandes démos qu’ils reçoivent chaque jour.
Selon eux dans une bonne Demoreel, il faut faire attention à ne pas mettre absolument tout ce l’on fait. Il vaut mieux rester concis et ne montrer que le meilleur, et surtout bien préciser ce que vous avez vraiment fait quand il s’agit de projets réalisés en studios ou à plusieurs. En entretien, veillez à bien énumérer chaque étape de vos créations, pour le recruteur ou la personne qui la regarde comprenne clairement vos compétences.
Un peu comme en production lors des sessions de « shot review », ils portent une très grande attention aux changements apportés aux démos, et tout particulièrement si vous faites plusieurs entretiens avec eux. Ils observent méticuleusement les corrections et regardent votre comportement, vos réactions. Il est important de s’assurer que vous prenez bien en compte leurs remarques. Ils trackent littéralement les évolutions des artistes qui postulent chez eux. Ces informations leur apportent notamment des informations sur la façon de penser des artistes, leur manière de résoudre des problèmes, etc. Les compétences et le talent comptent forcément, mais savoir écouter, se remettre en question et en tirer des conclusions constructives sont tout autant important à leurs yeux et pourront faire une véritable différence lors d’un entretien.
Par exemple pour les riggeurs ou les modeleurs de personnages, plutôt que de montrer comment fonctionnent vos rigs en faisant bouger des contrôleurs aléatoirement, donnez-les à des animateurs pour qu’ils les utilisent de façon concrète, afin de présenter concrètement leur qualité. De cette manière, les recruteurs peuvent vraiment savoir que votre travail a été éprouvé par d’autres artistes, et qu’ils auront pu vous faire des retours sur des problèmes que vous aurez corrigés par la suite, etc. Il ne faut d’ailleurs pas hésiter à montrer les tests et les évolutions d’un rig pour garder cet exemple, et mettre en évidence les problèmes rencontrés en expliquant la manière dont ils ont été résolus. Montrer l'évolution de vos travaux se révèle vraiment important.
Un autre conseil pour les lighters ou spécialistes en compositing, il est impératif de montrer les différentes lumières ou l’évolution des passes de rendu. Évitez à tout prix de ne montrer que des images ou des séquences terminées.
Ils avouent aussi qu’ils manquent parfois de postes libres dans certains départements, mais si la personne interviewée (NdR : terme en anglais couramment utilisé pour définir les entretiens d’embauche) a pour eux vraiment sa place au studio, ils s’arrangent pour créer un poste spécifique pour cette personne. Contrairement d'autres studios, ils n’hésitent pas à embaucher des personnalités créatives pour qu'elles rejoignent une équipe, et non pas un projet en particulier.
Pour bien terminer vos entretiens, il ne faut pas non plus hésiter à se montrer curieux et passionné, en posant des questions sur le studio, le projet, et même à parler un peu de vous, en expliquant ce que vous recherchez dans le poste pour lequel vous postulez.
Il faut aussi éviter d’être trop généraliste sur son CV, et l’ajuster en fonction du poste demandé. Évitez de le faire tenir sur plus d’une page. En ce qui concerne la lettre de motivation, elle doit être concise et ne pas dépasser quelques paragraphes, et doit reprendre les projets et studios sur lesquels vous êtes intervenus.
Voilà pour ces quelques conseils de recrutement selon Pixar.
BILAN 2016 :
Si nous nous concentrons chaque année sur les conférences, le FMX c’est aussi de nombreux espaces qui répondent aussi bien aux attentes des étudiants que des professionnels, en plus de donner lieu à des rencontres toujours passionnantes.
En plus des présentations, on peut aussi compter sur un espace dédié aux écoles permet de se faire une idée des formations émergentes en Europe, une zone de recrutement qui s’agrandit chaque année avec plusieurs dizaines de studios représentés, mais c’est aussi un large espace de démonstrations technologies avec des éditeurs, constructeurs et prestataires venus expliquer leurs services et leurs produits. La réalité virtuelle était particulièrement bien représentée avec la mise en place des plusieurs plateaux virtuels, permettant même des immersions interactives à plusieurs, et même d’une VRJam qui a fait son apparition cette année. C’est aussi sans parler des nombreuses soirées ou « party » et aux projections de film qui se déroulent toute la semaine avec en parallèle le festival d’animation ITSF, qui apporte une réelle dynamique supplémentaire en faisant venir sur place de nombreux acteurs du monde de l’animation. Et puis les FMX c’est aussi de nouvelles et passionnantes rencontres, et puis des vielles connaissances qu’on recroise toujours avec plaisir, et nous en profitons pour saluer les équipes francophones des sociétés Goalem, Unity, ou encore Ubisoft présent elles aussi pour l’occasion
Après ces quelques jours à Stuttgart, nous revenons encore une fois avec une vision un peu plus précise de ce que nous révèle l’avenir, à travers de nouvelles certitudes, mais aussi beaucoup de nouvelles questions…
Une chose est certaine, une multitude de choses restent encore à inventer, imaginer et créer, tout ça n’est encore qu’un début !
Dossier réalisé par 3DVF
avec la contribution du Technical Director FX Beranger Roussel