
Artigo publicado originalmente em 2006 por Lev Manovich.
Tradução: Fábio Marino
Revisão de tradução: André Marcel de Lima
Revisão gramatical: Patrícia Garcia Costa
Prefácio à publicação brasileira
O design e o audiovisual, para mim, tendem a transcender quaisquer aspirações profissionais. São campos que particularmente configuram-se muito mais como um desejo primitivo de contar estórias, um ato visceral de auto expressão, ferramentas comunicativas de anseios políticos e sociais. Por esse motivo, estou sempre buscando aquilo que pode fornecer-me liberdade para criar e construir; isto é, uma prática conduzida através da reflexão, e a reflexão da própria prática1. Trazer para o Brasil materiais que ajudem a elucidar o que foi, o que é, e o que pode ser o Motion Design, tenham eles uma perspectiva técnica, histórica ou crítica, é o desejo manifesto de alcançar esse equilíbrio prático-teórico.
O autor que escolhi para figurar na primeira publicação do Labe Cinético, é uma personalidade que transita muito bem entre a prática e a teoria. Conheci o trabalho do Lev Manovich2 através da antologia “Teoria do Design Gráfico”3 organizada pela Helen Armstrong. No livro somos apresentados ao ensaio “Importação/Exportação: Fluxo de Trabalho no Design e Estética Contemporânea”. Neste trabalho, Lev Manovich analisa como os comandos de “importação” e “exportação” presentes nos softwares de criação de mídia são essenciais para as linguagens contemporâneas do design, nas quais se prevalece uma “metamídia”, ou seja, “a remixagem dos métodos e técnicas de trabalho de mídias distintas no interior de um mesmo projeto”4. Ler este ensaio me deixou completamente extasiado pois falava sobre algo presente no meu fluxo de trabalho (o diálogo entre softwares distintos), Lev Manovich mostrou-me uma produção intelectual diretamente relacionada a minha prática cotidiana.
O artigo que traduzimos, “After Effects, ou A Revolução de Veludo Parte 1”5, analisa mudanças drásticas, porém silenciosas e graduais, que ocorreram entre 1993 e 1998 na estética da linguagem da imagem em movimento; mudanças essas protagonizadas principalmente, mas não só, pelo software Adobe After Effects. O autor investiga aspectos fundamentais desse software, como a possibilidade de manipulação do nível de transparência individual de cada elemento de uma composição, que até então era algo inimaginável. O After Effects inaugura uma nova lógica no audiovisual, a lógica da “remixabilidade”, que permite a simulação de técnicas e métodos de diferentes mídias dentro de um mesmo ambiente de software, que ao se misturarem criam novos “espécimes culturais híbridos”. Além disso, o After Effects ajudou a instituir um outro paradigma – diferente do paradigma da edição de vídeo do século XX, em que a unidade mínima com a qual podia-se trabalhar era o frame, e o montador possuía o controle apenas sobre o tempo das imagens. A partir do surgimento do After Effects, essa unidade mínima passa a ser o elemento disposto na composição, cada um desses elementos agora podem ser manipulados individualmente; ou seja, o After Effects tornou a produção de filmes um processo de design.
Não posso deixar de agradecer ao próprio Lev Manovich, que concedeu permissão para que pudéssemos traduzir os seus artigos e divulgá-los através do selo Labe Cinético. Além disso, gostaria de mencionar dois professores que continuam dispostos a me dar suporte mesmo após o término da minha graduação, e que possuem um certa influência no meu desejo de criar o Labe. A Aline Okumura6 que me fez entender que a programação é maravilhosa e cada vez mais necessária no design; e o Guilherme Godoy7, que me mostrou ser possível continuar sendo punk e ao mesmo tempo manter os estudos em dia.
Espero que a leitura deste artigo possa elucidar a sua prática enquanto Motion Designer, e tornar-lhe um pouco mais livre para criar e construir.
Fábio Marino, fundador do Labe Cinético.
São Paulo, maio de 2023.
After Effects ou A Revolução de Veludo – Parte 1
Durante o ápice dos debates pós-modernistas, ao menos um crítico nos Estados Unidos reconheceu a relação existente entre o pastiche pós-moderno e a computadorização. Em seu livro After The Great Divide, publicado em 1986, Andreas Huyssen escreve: “Todas as técnicas, formas e imagens modernas e vanguardistas estão agora armazenadas para recuperação imediata nos bancos de memória computadorizada da nossa cultura. Mas esta memória também armazena tudo da arte pré-modernista, bem como os universos de gêneros, códigos e imagens das culturas populares e da moderna cultura de massa”.8 A análise de Huyssen é bem categórica, exceto pelo fato de que, pelos 15 anos seguintes, esses “bancos de memória computadorizada” não se tornaram algo comum. Apenas quando os arquivos de mídia foram consideravelmente assimilados pela rede mundial de computadores é que esses bancos de memória da cultura universal se tornaram acessíveis a todos os trabalhadores da cultura. Mas mesmo para os profissionais, a possibilidade de integrar facilmente múltiplas fontes de mídia no mesmo projeto − múltiplas camadas de vídeo, imagens escaneadas, animação, gráficos e tipografia − só apareceu por volta do final da década de 1990.
Em 1985, quando o livro de Huyssen estava sendo preparado para publicação, eu estava trabalhando em uma das poucas empresas de computação gráfica do mundo chamada Digital Effects.9 Cada computador de animação era equipado com o seu próprio terminal gráfico interativo capaz de mostrar modelos 3D apenas no wireframe e na visualização monocromática. Para ver a renderização final em cores, nós precisávamos revezar o único monitor de renderização colorida disponível na empresa. Os arquivos eram armazenados em volumosas fitas magnéticas de mais ou menos 30 centímetros de diâmetro; encontrar os arquivos de um trabalho antigo demandava um processo um tanto enfadonho que envolvia localizar a fita correta na videoteca, colocá-la em um leitor e procurar pela parte desejada na fita. Nós não tínhamos um scanner colorido, então a obtenção das tais “técnicas, formas e imagens modernas e vanguardistas” através do computador não era nada simples. E mesmo se nós tivéssemos o scanner, não existiria maneira para armazenar, recuperar e modificar essas imagens. O computador que poderia fazer isso − Quentel Paintbox10 − custava mais de 160.000 dólares, mas estes nós não tínhamos condições de bancar. E quando, em 1986, a Quantel lançou o Harry, o primeiro sistema de edição de vídeo não linear comercial que permitia a composição de múltiplas camadas de vídeo e efeitos especiais, seu custo também não era acessível para todos, exceto para as grandes emissoras de televisão e algumas produtoras. O Harry podia gravar apenas oitenta segundos de vídeo com qualidade de transmissão; no mundo das imagens estáticas, as coisas também não estavam muito melhores: por exemplo, a unidade de armazenamento Picturebox lançada pela Quantel em 1990 podia armazenar apenas 500 imagens com qualidade de transmissão, e o custo era igualmente alto.
Resumidamente, em meados de 1980, nem nós e nenhuma outra empresa tínhamos o “banco de memória computadorizada” de forma tão acessível quanto a imaginada por Huyssen. E, claro, o mesmo era válido para os artistas plásticos associados ao pós-modernismo e aos conceitos de pastiche, colagem e apropriação. Em 1986, a BBC produziu o documentário Painting with Light, para o qual alguns pintores conhecidos, como Richard Hamilton e David Hockney, foram convidados a trabalhar com o Quantel Paintbox. Os resultados foram imagens não muito diferentes das que eles já produziam sem a utilização de um computador. E embora alguns artistas estivessem fazendo referências às “técnicas, formas e imagens modernas e vanguardistas”, essas referências eram literalmente pinturas e não imagens carregadas diretamente de um “banco de memória computadorizada”. Só em meados da década de 1990, quando estações gráficas de trabalho e computadores pessoais relativamente baratos rodando softwares de edição de imagem, animação, composição e ilustração se tornaram comuns e acessíveis para designers gráficos, ilustradores e pequenos estúdios de pós-produção e animação é que o cenário descrito por Huyssen começou a se tornar realidade.
Os resultados foram bem interessantes. Dentro de mais ou menos cinco anos, a cultura visual moderna sofreu mudanças substanciais. As mídias, até então avulsas, como o cinema live action, gráfico, fotografia, animação tradicional, animação digital 3D e tipografia, começaram a ser combinadas de diversas maneiras. No final da década, a imagem em movimento “pura” se tornou exceção, e a mídia híbrida tornou-se padrão. No entanto, em contraste com outras revoluções computacionais da mesma época, como o surgimento da World Wide Web, essa Revolução de Veludo não foi reconhecida nem pela mídia popular, nem pelos críticos. O que recebeu atenção foram os avanços que afetaram o cinema narrativo, a saber: a utilização de efeitos especiais produzidos por computador nas produções de Hollywood, ou fora do eixo Hollywoodiano, o barateamento do vídeo digital e das ferramentas de edição. Mas outro processo que aconteceu em maior escala referente à transformação da linguagem visual utilizada em todas as outras formas de imagem em movimento que não à do cinema narrativo não foram criticamente analisadas. De fato, embora os resultados dessas transformações tenham ficado visíveis por volta de 1998, no momento desta publicação (2006) eu não tenho conhecimento de nenhum artigo teórico que discute esse tema.
Um dos motivos é que nessa revolução não foi criada nenhuma mídia propriamente dita. Assim como há dez anos, os designers continuam criando imagens estáticas e imagens em movimento. Mas a estética dessas imagens era agora muito diferente. Na verdade, isso foi tão revolucionário que, observando em retrospecto, o imaginário pós-modernista de dez anos atrás, que parecia surpreendentemente diferente naquela época, lembra agora um ponto quase imperceptível no radar da história cultural.
Hibridismo Visual
Este artigo faz parte de uma série dedicada a analisar a nova e híbrida linguagem visual das imagens em movimento que emergiu durante o período entre 1993 e 1998. Hoje essa linguagem domina nossa cultura visual. Enquanto as características narrativas normalmente estão relacionadas à cinematografia ao vivo e aos vídeos gravados por pessoas comuns com câmeras de vídeo e celulares, todo o restante − comerciais, videoclipes, motion graphics, broadcast design, e outros tipos de filmes curtos não narrativos e sequências de imagens em movimento produzidos ao redor do mundo pelos profissionais de mídia, incluindo empresas, designers, artistas e estudantes −, é híbrido.
É claro que eu poderia ter escolhido outras datas. Poderia, por exemplo, ter começado a minha análise alguns anos antes, mas uma vez que o software After Effects, que a meu ver teve um papel fundamental, tenha sido lançado 1993, optei por escolher este ano como minha primeira data. Diferente também poderia ter sido a escolha da segunda data, mas acredito que em 1998 as grandes mudanças na estética da imagem em movimento tornaram-se visíveis. Se deseja ver isso por si próprio, basta comparar os demo reels das mesmas empresas de efeitos visuais produzidos no início dos anos 1990 e no final dos anos 1990 (alguns deles estão disponíveis online − veja, por exemplo, os trabalhos da Pacific Data Images).11 Nos trabalhos do começo da década, a imagem computacional na maioria dos casos aparecia avulsa, ou seja, os comerciais e vídeos promocionais eram produzidos inteiramente em animação digital 3D, com o aspecto inovador dessa nova mídia em destaque. No final da década de 1990, a animação digital torna-se apenas um elemento integrado na composição de mídia em que também estão inclusos o live action, a tipografia e o design.
Embora essas transformações só tenham acontecido recentemente, a onipresença da nova linguagem visual híbrida é tal que, hoje (2006), precisamos nos esforçar para lembrar como as coisas eram diferentes antes disso. De forma similar, as transformações nos processos e equipamentos de produção que tornaram essa nova linguagem visual possível rapidamente desapareceram da memória do público e dos profissionais. Como forma de evocar essas mudanças de uma perspectiva profissional, citarei uma entrevista de 2004 com Mindi Lipschutz, que trabalhou como editora, produtora e diretora em Los Angeles desde 1979:
Se você quisesse ser mais criativo [na década de 1980], você não poderia simplesmente instalar um novo software no seu computador. Você teria de gastar dezenas de milhares de dólares para comprar um Paintbox. Se você quisesse criar algo gráfico – uma abertura de programa de TV com muitas camadas – você teria de ir até um estúdio de edição e gastar mais de mil dólares por hora para fazer a mesma coisa que você é capaz de fazer hoje apenas comprando um computador barato e muitos softwares diferentes. Agora, com o Adobe After Effects e o Photoshop, você faz de tudo em pouquíssimo tempo. Você pode editar, projetar, animar. Você pode fazer 3D ou 2D inteiramente do seu computador em casa ou num pequeno escritório.12
Em 1989, antigos países-satélites do Leste Europeu e da Europa Central se libertaram pacificamente da União Soviética. No caso da Checoslováquia, esse evento veio a ser conhecido como Revolução de Veludo, para contrastar com as típicas revoluções da história moderna frequentemente acompanhadas de derramamento de sangue. Para enfatizar o ritmo praticamente invisível da transformação que aconteceu na estética da imagem em movimento, aproximadamente entre 1993 e 1998, eu vou me apropriar do termo Revolução de Veludo para me referir a essas transformações. Portanto, essa série de artigos é chamada A Revolução de Veludo na Cultura da Imagem em Movimento. Embora pareça presunçoso comparar transformações políticas e estéticas simplesmente por elas compartilharem o mesmo aspecto de “não violência”, como veremos no próximo artigo, as duas revoluções estão relacionadas. Mas nós só podemos fazer essa conexão depois de analisarmos com detalhes como a estética e a lógica das imagens em movimento mudaram durante esse período.
Embora a Revolução de Veludo que irei discutir envolva muitos desenvolvimentos tecnológicos e sociais − hardware, software, práticas de produção, novos cargos e campos profissionais − é apropriado destacar um software como epicentro desses eventos. Esse software é o After Effects. Lançado em 1993, o After Effects foi o primeiro software desenvolvido para rodar animação, composição e efeito visual em computadores pessoais.13 Seus efeitos impactantes na produção de imagens em movimento podem ser comparados aos efeitos do Photoshop e do Illustrator na fotografia, ilustração e design gráfico. Embora hoje (2006) as empresas de design e pós-produção continuem a contar com softwares mais caros e tops de linha como o Flame, Inferno ou o Paintbox que rodam em computadores especializados da SGI;14 por causa da sua acessibilidade e do seu tempo de mercado, o After Effects é o software mais popular e reconhecido da área. Consequentemente, o After Effects terá um papel privilegiado neste artigo, como símbolo e agente fundamental que tornou possível a Revolução de Veludo na cultura da imagem em movimento, ainda que hoje outros softwares da mesma categoria e com preços competitivos, como o Motion da Apple, o Combustion da Autodesk e o Adobe Flash, tem desafiado a predominância do After Effects.
Finalmente, antes de continuar, irei explicar o uso de exemplos neste artigo. A linguagem visual analisada está em todos os lugares hoje em dia (isso poderia explicar por que os acadêmicos permaneceram indiferentes sobre o assunto). Depois da globalização, essa linguagem passou a ser “falada” por todos os profissionais da comunicação ao redor do mundo. Você pode ver vários exemplos dessa estética simplesmente ligando a televisão em praticamente qualquer país e prestando atenção nos seus gráficos, indo a uma festa para ver uma performance de um VJ, visitando sites de motion designers e empresas de efeitos visuais, ou abrindo qualquer livro contemporâneo de design. No entanto, inclui referências a projetos específicos para que o leitor possa ver exatamente à que me refiro.15 Mas sendo a minha meta descrever a nova linguagem cultural que se tornou praticamente universal. Eu gostaria de enfatizar que qualquer um desses exemplos pode ser substituído por muitos outros.
Exemplos
A utilização do After Effects é facilmente identificável em um tipo particular de imagens em movimento que se tornou comum em larga escala, em parte por conta do próprio After Effects − o motion graphics. Definido concisamente por Matt Frantz em sua dissertação de mestrado como “visuais concebidos de maneira não narrativa e não figurativa que se alteram ao longo do tempo”,16 hoje em dia, motion graphics incluem títulos de filmes e programas de televisão, broadcast design, menus dinâmicos, conteúdo gráfico para dispositivos móveis, e outras sequências animadas. Motion Graphics aparece tipicamente como parte integrante de peças maiores: comerciais, videoclipes, vídeo de treinamento, filmes narrativos, documentários e projetos interativos.
Embora o Motion Graphics exemplifique definitivamente as mudanças que ocorreram durante a Revolução de Veludo, essas mudanças são ainda maiores. Simplificando, o resultado da Revolução de Veludo é uma nova e generalizada linguagem visual híbrida das imagens em movimento. Essa linguagem não se restringe a nenhuma forma de mídia particular. E embora hoje ela se manifeste mais claramente de forma não narrativa, também é possível notar a sua presença em sequências e filmes narrativos e figurativos.
Por exemplo, um videoclipe pode, ao mesmo tempo, utilizar live action e integrar tipografia e uma variedade de transições feitas a partir de computação gráfica. (exemplo: videoclipe de Go do rapper Common, dirigido por Convert / MK12 / Kanye West, 2005). Ou poderia inserir a cantora dentro de um espaço pictórico animado (exemplo: videoclipe de Good Is Good, da cantora Sheryl Crow, dirigido por Psypop, 2005). Ou ainda, um curta-metragem poderia misturar tipografia, gráficos 3D estilizados, elementos de design em movimento e vídeo (exemplo: videoclipe de Itsu, da Plaid, dirigido pelo coletivo Pleix, 200217).
Em alguns casos, a justaposição de diferentes mídias é claramente visível (exemplo: videoclipe da Don’t Panic da banda Coldplay; faixa principal da série The Inside, produzida pelo estúdio Imaginary Forces, em 2005). Em outros casos, a sequência pode transitar entre diferentes mídias tão rapidamente que as mudanças são quase imperceptíveis (Comercial Holes da GMC produzido pela Imaginary Forces em 2005). Ainda, em outros casos, um comercial ou uma abertura de filme pode apresentar uma ação contínua gravada ou filmada, com a imagem se alterando periodicamente entre uma aparência mais natural e um visual extremamente estilizado. Embora as soluções estéticas variem de forma muito particular entre uma peça e outra ou entre um designer e outro, todos compartilham a mesma lógica: a aparição de múltiplas mídias simultaneamente no mesmo frame. Se essas mídias estão visivelmente justapostas ou quase imperceptivelmente mescladas, é muito menos importante do que o fato de elas coexistirem.
Hoje a tal linguagem visual híbrida é também muito comum em curtas-metragens “experimentais” (isto é, não comerciais) produzidos para festivais, para a web, dispositivos móveis, e outras plataformas de distribuição.18 Grande parte dos visuais criados por VJs e artistas do live cinema19 são também híbridos, combinando vídeos, camadas de imagem 2D, animação e imagens abstratas geradas em tempo real, por exemplo, consulte os livros The VJ book e VJ: Live Cinema Unraveled, ou sites como www.vjcentral.com e www.live-cinema.org.20 No caso de longas-metragens narrativos e programas de TV, embora ainda raramente misturem estilos gráficos diferentes dentro do mesmo frame, muitos agora apresentam uma estética altamente estilizada que antes seria facilmente assimilada à ilustração ao invés do cinema – por exemplo, a série de TV CSI, os últimos filmes de Star Wars de George Lucas, ou Sin City de Robert Rodriguez.
A remixabilidade de mídia
Qual é a lógica dessa nova linguagem visual híbrida? Sua lógica é a da remixabilidade: não só do conteúdo de diferentes mídias ou simplesmente da sua estética, mas suas técnicas fundamentais, métodos de trabalho e paradigmas. Unidos dentro de um ambiente de software comum, como o cinema, animação, animação digital, efeitos visuais, design gráfico e tipografia, eles formam um novo meta-meio. Um trabalho produzido nesse novo meta-meio pode usar quaisquer técnicas que antes eram exclusivas de suas respectivas mídias, ou ainda, qualquer subconjunto dessas mesmas técnicas.
Se usarmos o conceito de “remidiação” para descrever essa situação, nós iremos deturpar essa lógica, ou a lógica da mídia computacional no geral.21 O computador não “remidia” nenhuma mídia específica. Ao invés disso, ele simula qualquer mídia. E o que é simulado não é a aparência superficial das diferentes mídias, mas todas as técnicas de produção e todos os métodos de visualização e interação de trabalho dessas mídias.
Uma vez que todos os tipos de mídia se encontram dentro de um mesmo ambiente digital (isso se tornou realidade em meados da década de 1990), elas começaram a interagir de maneiras que não poderiam ter sido previstas ou imaginadas anteriormente. Por exemplo, embora algumas técnicas de mídias específicas continuem a ser utilizadas de forma a se relacionar com a sua mídia de origem, elas também podem ser aplicadas em outras mídias. Isso é possível porque as técnicas se transformaram em algoritmos; todas as mídias foram transformadas em dados digitais armazenados em formatos de arquivos compatíveis, e os softwares são desenvolvidos para lerem e alterarem arquivos produzidos por outros softwares. Aqui vão alguns exemplos: o desfoque de movimento é aplicado na computação gráfica 3D, campos de partículas gerados por computador são mesclados com live action para resultar em um visual mais interessante, uma câmera virtual é criada para mover-se ao redor do espaço virtual preenchido com ilustrações bidimensionais, a tipografia é animada como se fosse feita de material líquido (a simulação de líquidos vinda do campo da computação gráfica), e assim por diante. E embora esse cross-over (cruzamento) por si próprio já constitua uma alteração fundamental na história da mídia, hoje um típico curta-metragem ou sequência pode apresentar muitas combinações dentro de um mesmo frame. O resultado é uma rica linguagem visual, híbrida e complexa, ou melhor, múltiplas linguagens que compartilham a lógica básica de remixabilidade.
Eu acredito que essa “remixabilidade de mídia”, que começou em meados da década de 1990, constitui um novo estágio fundamental na história da mídia. Isso se manifesta em diferentes áreas da cultura e não só das imagens em movimento, apesar de essa última oferecer um exemplo particularmente notável dessa nova lógica em funcionamento. Softwares como After Effects se tornaram um verdadeiro laboratório, em que animação digital, cinema, design gráfico, animação tradicional e tipografia começaram a interagir, criando novos híbridos. E assim como os exemplos mencionados demonstram, o resultado desse processo de remixabilidade é uma nova estética e uma nova espécie de mídia que não pode ser reduzida à soma das mídias que a geraram. De outra forma, as interações de diferentes mídias no mesmo ambiente de software são espécimes culturais.
Essa remixabilidade não nos leva necessariamente a uma estética de colagem com destaque para as justaposições de diferentes mídias e diferentes técnicas. Como um exemplo bem diferente do que a remixabilidade de mídia pode resultar, considere uma estética mais sutil bem encapsulada pelo software em questão − o After Effects. Se os computadores dos anos 1990 foram usados para criar efeitos especiais espetaculares ou efeitos invisíveis,22 no final da década observamos algo diferente emergindo: uma nova estética visual que iria “além dos efeitos”. Nessa estética, todo projeto, videoclipe, comercial, curta-metragem ou um trecho de um longa apresentam um aspecto hiper-realista onde o realce do material live action não é completamente invisível, mas ao mesmo tempo não chama a atenção para si próprio como os efeitos especiais normalmente faziam (exemplos: comercial da Reebok I Pump Black Basketball, a sequência de abertura do filme The Legend of Zorro, ambos produzidos pela Imaginary Forces em 2005). Essa estética hiper-realista é ainda um outro exemplo de como, nas mãos do designer, o laboratório-software, contendo todas as mídias de criação e técnicas de manipulação já criadas pelos humanos ao longo da história, produz agora novos híbridos. Na verdade, produz apenas híbridos.
Camadas, transparência, composição
Vejamos agora os detalhes da nova linguagem visual das imagens em movimento que emergiram da Revolução de Veludo, além de suas condições materiais e sociais − software, interface de usuário, fluxo de trabalho − que tornam a remixabilidade possível. Provavelmente a mais impactante dentre as mudanças que ocorreram durante o período entre 1993 e 1998 foi a nova capacidade para combinar através da composição digital múltiplas camadas de imagens com variação de transparência. Se você comparar um videoclipe ou um anúncio de TV por volta de 1986 com os que foram produzidos uma década depois, as diferenças são impressionantes (o mesmo ocorre para imagens estáticas). Como já foi dito, em 1986, os “bancos de memória computadorizada” eram muito limitados em relação à sua capacidade de armazenamento, além de serem extremamente caros, de modo que os designers não podiam copiar e colar imagens de múltiplas fontes diferentes com facilidade. Mesmo quando o designer trabalhava com múltiplas referências visuais, ele poderia dispô-las apenas ao lado ou em cima umas das outras, não era possível ajustar precisamente a transparência de cada uma das imagens. Pelo contrário, era necessário recorrer às mesmas técnicas de fotocolagem popularizadas na década de 1920. Em outras palavras, a falta de controle da transparência restringia as possibilidades de integração de imagens de diferentes fontes dentro de uma única composição sem que parecesse uma fotocolagem de John Heartfield, Hannah Hoch, ou Robert Rauschenberg, um mosaico de fragmentos.23
A composição digital também tornou mais trivial uma outra operação que antes era difícil de realizar. Até a década de 1990, diferentes tipos de mídia como a animação tradicional, filme, vídeo e tipografia praticamente nunca apareciam juntas em um mesmo frame. Ao invés disso, comerciais animados, curtas-metragens publicitárias, filmes industriais,24 e alguns longas-metragens e filmes experimentais que faziam uso de múltiplas mídias geralmente as utilizavam em cenas separadas. Alguns poucos diretores conseguiram construir verdadeiros sistemas estéticos a partir destas justaposições temporais − o mais notável, Jean-Luc Godard. Em seus filmes da década de 1960 como Week End (1967), Godard editou composições tipográficas sobrepostas ao live action, criando assim o que pode ser chamado de “montagem de mídia”. Na mesma década, o pioneiro do Motion Graphics, Pablo Ferro, criou curtas-metragens promocionais e animações gráficas para TV que jogavam com a justaposição de diferentes mídias intercalando-as sucessivamente.25 Em alguns trechos de trabalhos do Pablo Ferro, imagens estáticas de diferentes tipografias, linhas desenhadas, pinturas originais feitas à mão, fotografias, trechos curtos de telejornais e outros visuais apareciam um após o outro com a velocidade de uma metralhadora.
No cinema, a sobreposição de diferentes mídias no mesmo frame é geralmente limitada a duas mídias postas uma em cima da outra de forma padronizada, isto é, letras estáticas aparecendo em cima de imagens estáticas ou imagens em movimento nas sequências de aberturas de longas-metragens. Tanto Ferro como outro pioneiro do Motion Graphics, Saul Bass, criaram algumas sequências em que elementos visuais de diferentes origens foram sistematicamente sobrepostos, como na abertura do longa de Hitchcock, Vertigo, criada por Bass em 1958. Mas penso valer a pena dizer que tais justaposições complexas de mídia em um mesmo frame (ao invés de em uma sequência) foram raras exceções nesse excessivo universo “unimidia”, em que imagens filmadas só apareciam nos live actions, e desenho feito à mão só aparecia em animações. O único diretor de filmes do século XX que tenho conhecimento de ter construído sua estética autoral através da combinação sistemática de diferentes mídias na mesma cena foi Karel Zeman, da Checoslováquia. Uma típica cena de Zeman poderia conter figuras humanas filmadas, gravuras antigas usadas como cenário e modelos em miniatura.26
As conquistas desses diretores e designers são particularmente notáveis, tendo em vista a dificuldade que era combinar diferentes mídias em um mesmo frame durante a era do filme analógico. Para se fazer isso era necessário recorrer à utilização dos serviços dos departamentos de efeitos especiais ou empresas especializadas em pintura óptica.27 As técnicas que eram baratas e acessíveis, como a dupla exposição, eram limitadas em sua precisão. Portanto, enquanto um designer de imagens estáticas poderia, pelo menos, cortar e colar múltiplos elementos na mesma composição para criar fotocolagem, a obtenção de um efeito equivalente nas imagens em movimento era algo bem longe do trivial.
Em termos gerais, podemos dizer que antes da computadorização da década de 1990, as possibilidades que um designer tinha para acessar, manipular, remixar e filtrar informações visuais, sejam estáticas ou em movimento, eram bastante restritas. Na verdade, as possibilidades eram praticamente as mesmas de um século atrás, independentemente de cineastas e designers utilizarem efeito in-camera, impressão óptica ou video keying. Em retrospecto, nós podemos notar que eles estavam em desvantagem em relação à flexibilidade, velocidade e precisão da manipulação de dados que já existia para a maioria dos profissionais de outros campos que, nessa época, já eram computadorizados, a exemplo das ciências, engenharia, contabilidade, administração etc. Portanto, era só uma questão de tempo até que toda a mídia imagética pudesse ser transformada em dados digitais; e ilustradores, designers, animadores, diretores de filmes, editores de vídeo e motion designers começassem a manipulá-las através de software ao invés de usarem as ferramentas tradicionais. Mas isso só se tornou óbvio nos dias de hoje, após a Revolução de Veludo.
Em 1985, Jeff Stein dirigiu um videoclipe para a banda new wave/rock The Cars. Esse vídeo foi responsável por um grande salto no mundo do design, e a MTV concedeu-lhe o prêmio de “vídeo do ano” na primeira edição do VMA. Stein dirigiu a criação de um mundo surreal em que uma colagem do frontman da banda foi animada em diferentes cenários em vídeo. Em outras palavras, Stein se apropriou da estética do desenho animado − personagens bidimensionais sobrepostos sobre cenários também bidimensionais − e a recriou utilizando vídeo. Além disso, elementos computadorizados foram adicionados em algumas cenas para realçar o efeito surreal. O videoclipe foi impactante porque até então ninguém tinha visto justaposições como estas. De repente, a fotomontagem modernista ganhava vida. Porém, 10 anos depois, tais colagens em movimento não só se tornaram comuns como também mais complexas, elaboradas (com mais camadas) e mais sutis. Ao invés de duas ou três camadas, a composição poderia agora conter centenas ou milhares delas, e cada uma poderia ter o seu próprio nível de transparência.
Em resumo, a composição digital possibilitou aos designers misturar, com facilidade, inúmeros elementos visuais sem considerar o tipo de mídia dos quais se originaram, além de controlar cada elemento no processo. Nós podemos fazer uma analogia entre a captação de áudio em múltiplas faixas e a composição digital de imagens em movimento. Na captação de áudio, cada faixa de som pode ser manipulada individualmente para produzir o resultado desejado. De forma similar, na composição digital, cada elemento visual pode ser controlado de maneira independente de diversas formas em relação à escala, cor, animação etc. Assim como na música em que o artista pode focar em uma única faixa silenciando as restantes, o designer pode ocultar a visualização de todas as camadas exceto a que ela está ajustando. Ambos podem substituir a qualquer momento um elemento da composição por outro, assim como deletar ou acrescentar elementos. Mais importante do que isso, da mesma forma que a captação de áudio em múltiplas faixas redefiniu o som da música popular da década de 1960 em diante, uma vez que a composição digital se tornou amplamente popular durante os anos 1990, ela acabou transformando a estética visual das imagens em movimento na cultura popular.
Esta breve discussão foi apenas uma pincelada no assunto desta seção, isto é, camadas e transparência. Por exemplo, eu não analisei as técnicas atuais de composição digital e o conceito fundamental do “canal alpha” que merecem um tratamento mais detalhado. Também não adentrei os possíveis desdobramentos históricos que culminaram na composição digital, nem mesmo a sua relação com a impressão óptica, o video keying e a tecnologia de efeitos em vídeo dos anos 1980. Esses desdobramentos históricos e relações foram discutidos no capítulo Compositing do meu livro The Language of New Media (1999),28 mas de uma perspectiva diferente da tratada aqui. Naquela época, eu estava olhando para a composição através da perspectiva das questões do cinema realista, a prática de montagem e a construção dos efeitos especiais nos longas-metragens. Hoje, no entanto, é claro para mim que, além de romper com a regência do cinema realista em prol de uma nova linguagem visual, a composição também teve um outro efeito ainda mais fundamental.
No final da década de 1990, a composição digital tornou-se a operação básica utilizada não só nos filmes de alto orçamento, mas na criação de qualquer forma de imagem em movimento. Portanto, embora a composição tenha sido originalmente desenvolvida no contexto das produções de efeitos especiais dos anos 1970 e começo de 1980,29 ela teve um efeito muito mais amplo na cultura visual e na mídia contemporânea. A composição foi um fator importantíssimo para transformar o computador em um grande laboratório de experimentos, em que diferentes mídias pudessem se encontrar e suas estéticas e técnicas pudessem ser combinadas para criar novos espécimes. Resumindo, a composição digital foi essencial para permitir o desenvolvimento de uma nova linguagem visual híbrida das imagens em movimento que pode ser vista em todos os lugares nos dias de hoje. Em outras palavras, a composição tornou possível a remixabilidade da mídia nas imagens em movimento.
Desta forma, a composição, que primeiro foi uma técnica digital especialmente criada para integrar duas mídias específicas de live action e computação gráfica, se torna um “integrador universal de mídia”. E apesar de a composição ter sido criada originalmente para ajudar na estética do cinema realista, com o passar do tempo, ela teve o efeito oposto. Ao invés de forçar diferentes mídias a se integrarem perfeitamente, a composição culminou no florescimento de inúmeras mídias híbridas, em que a justaposição entre live action e elementos gerados por algoritmo, sejam eles bidimensionais, tridimensionais, bitmap ou vetores, criou deliberadamente de forma visível as mídias híbridas, ao invés de estarem ocultas.
Da lógica temporal para a lógica compositiva
Minha tese sobre remixabilidade de mídia se aplica tanto às formas culturais quanto aos softwares utilizados para criá-las. Da mesma forma que a imagem em movimento produzida por designers nos dias de hoje mescla formatos, paradigmas e técnicas de diferentes mídias; as ferramentas e interfaces dos softwares que elas utilizam também são remixadas. Podemos considerar novamente o After Effects como estudo de caso para ver como a sua interface mistura métodos de trabalho que antes eram distintos e respectivos a diferentes disciplinas.
Quando os motion designers começaram a utilizar softwares de composição/animação como o After Effects, a sua interface os encorajou a pensar sobre imagens em movimento através de uma óptica distinta. Sistemas de edição de filme e vídeo e as suas versões simuladas digitalmente que vieram a ser conhecidas como “editores não lineares” (hoje bem representados por softwares como o Avid e o Final Cut30) qualificaram um projeto de mídia como uma sequência de cenas organizadas no tempo. Ao passo que a edição não linear31 concedeu aos editores muitas ferramentas para ajustarem suas montagens, eles acabaram tomando como verdade a constante de uma linguagem cinematográfica que provinha da sua organização industrial, a constante de que todo frame tem o mesmo tamanho e proporção. Isso é um exemplo de um fenômeno mais amplo: com a mídia física simulada digitalmente, frequentemente muitas das suas propriedades fundamentais, padrões de interface e restrições foram metodicamente recriadas no software, apesar de o software por si só já possuir algumas limitações. Em contraste, desde o começo, a interface do After Effects apresentou um novo conceito para a imagem em movimento, agora com a composição podendo ser organizada tanto no tempo quanto no espaço bidimensional.
A base dessa interface é a janela de composição conceituada como uma grande tela que pode conter elementos visuais de tamanhos e proporções arbitrárias. Quando eu comecei a utilizar o After Effects logo que ele foi lançado, eu me lembro de ter ficado impressionado com o fato de que ele não alterava o tamanho dos elementos automaticamente quando jogados dentro da janela de composição para fazê-los caber no frame. A constante fundamental do cinema que o acompanhou durante toda a sua história − de que o filme consiste de muitos frames de mesmo tamanho e proporção − desapareceu.
Nos paradigmas da edição de vídeo do século XX, a unidade mínima com a qual o editor podia trabalhar era o frame. Ele poderia alterar o comprimento de uma montagem, ajustar onde um segmento termina e outro começa, mas ele não poderia interferir no conteúdo do frame. O frame funcionava como uma espécie de “caixa preta”36 que não poderia ser aberta. Isso era trabalho para o departamento de efeitos especiais. Já na interface do After Effects, a unidade mínima não é mais o frame, mas sim o elemento disposto na janela de composição. Cada elemento pode ser individualmente acessado, manipulado e animado. Em outras palavras, cada elemento comporta-se como um objeto independente. Consequentemente, a composição de mídia passou a ser entendida como um conjunto de objetos que sofrem alterações no decorrer do tempo. A própria palavra “composição” é importante neste contexto, pois faz referência à mídia bidimensional (desenho, pintura, fotografia, design) ao invés do cinema, ou seja, é o espaço em oposição ao tempo.
De onde veio a interface do After Effects? Visto que este software é comumente utilizado para criar gráficos animados (ou seja, motion graphics) e efeitos visuais, não é surpresa nenhuma que possamos rastrear elementos da sua interface de três campos diferentes: animação, design gráfico e efeitos especiais. Na animação tradicional, o animador posiciona inúmeras camadas transparentes32 uma em cima da outra. Cada camada contém um desenho diferente, por exemplo, o corpo do personagem em uma camada, a cabeça em outra e os olhos em uma terceira. Por conta de as camadas serem transparentes, o desenho automaticamente se dispõe em uma única composição. Apesar de a interface do After Effects não fazer uso disso diretamente, ela se baseia no mesmo princípio. Cada elemento na composição tem atribuído uma “profundidade virtual” relativa a todos os outros elementos. Assim, todos os elementos juntos formam uma pilha virtual. A qualquer momento, o designer pode mudar a posição relativa de cada elemento dentro dessa pilha, apagá-los ou adicionar novos.
Podemos também encontrar uma conexão entre a interface do After Effects e o stop motion, que foi uma outra técnica de animação popular no século XX. Com a técnica de stop motion, fantoches ou qualquer outro objeto são posicionados em frente à câmera e manualmente animados ao ritmo de um frame por vez. O animador expõe um frame do filme, muda os objetos de posição, expõe outro frame, e assim por diante.
Assim como no caso da animação tradicional e do stop motion, o After Effects não faz nenhuma estimativa sobre o tamanho ou posição de elementos individuais. Ao invés de lidar com unidades de tempo padrão, ou seja, frames de filmes contendo conteúdos visuais fixos, o designer agora trabalha com elementos visuais posicionados no espaço e no tempo. Um elemento pode ser um frame de vídeo digital, uma linha tipográfica, uma forma geométrica etc. O trabalho final é o resultado de um arranjo específico desses elementos no espaço e no tempo. Nesse paradigma, podemos comparar o designer a um coreógrafo que cria uma dança “animando” os corpos dos dançarinos, especificando seus momentos de entrada e saída, sua trajetória pelo espaço do palco e o movimento de seus corpos. (A esse respeito, é relevante pensar que, apesar de a interface do After Effects não evocar essas referências, o Macromedia Director, que foi o principal software multimídia da década de 1990, usou diretamente a metáfora do teatro.
Embora possamos vincular a interface do After Effects aos métodos tradicionais utilizados por estúdios de animação comercial, os métodos de trabalho apresentados pelo software são mais próximos aos do design gráfico. Nos estúdios de animação comercial do século XX, todos os elementos, desenhos, cenários, personagens etc. eram preparados antecipadamente. A filmagem por si só era um processo mecânico. Claro, podemos encontrar exceções desse modo industrial de dividir o trabalho na prática da animação experimental, quando um filme era normalmente produzido por uma única pessoa. Por exemplo, em 1947, Oscar Fischinger produziu o curta-metragem de onze minutos Motion Painting 1 modificando continuamente uma pintura e expondo um frame por vez a cada nova modificação. No entanto, como Fischinger na época estava utilizando filme analógico, ele precisava esperar muito tempo para poder ver o resultado de seu trabalho. Como o historiador da animação abstrata William Moritz escreveu, “Fischinger pintou todos os dias por mais de cinco meses sem poder constatar como o seu filme estava ficando durante o processo, uma vez que ele queria manter todo o ambiente, incluindo a película cinematográfica, absolutamente em ordem para evitar quaisquer variações inesperadas na qualidade da imagem”.33 Em outras palavras, no caso do projeto do Fischinger, criar e ver o resultado era um processo ainda mais apartado do que na animação comercial.
Em contraste a esta realidade, o designer gráfico trabalha em “tempo real”. Enquanto introduz novos elementos, ajusta suas posições, cores e outras propriedades, experimenta diferentes imagens, altera o tamanho da tipografia, e assim por diante, o designer pode conferir imediatamente o resultado da sua produção.34 O After Effects simula esse método de trabalho fazendo da janela de composição a base da sua interface. Como um designer tradicional, o usuário do After Effects organiza os elementos interativamente nessa janela e pode imediatamente observar o resultado. Em resumo, a interface do After Effects tornou a produção de filmes um processo de design, e o filme acabou sendo reconceituado como uma peça de design gráfico que pode sofrer alterações ao longo do tempo.
Quando uma mídia física é simulada em um computador, o resultado não é simplesmente igual à sua mídia de origem. Adicionando novas propriedades e métodos de trabalho, a simulação por computador fundamentalmente modifica a identidade de uma determinada mídia. Por exemplo, no caso do “papel eletrônico”, como um documento de Word ou um arquivo PDF, nós podemos realizar muitas ações que não são possíveis com o papel comum: zoom in e zoom out (aproximar e distanciar), pesquisar frases, mudar a fonte e o espaçamento de linha etc. De forma muito similar, os serviços de mapas atuais (2006) fornecidos pela Mapquest, Yahoo, e Google ampliam o uso do mapa tradicional de papel de muitas formas maravilhosas – vide o Google Earth.35
Uma proporção significativa dos softwares contemporâneos de criação, edição e interação de mídia foram desenvolvidos com essa mesma premissa de simular uma mídia física e potencializá-la com novas propriedades. Mas se considerarmos softwares de design de mídia como o Maya (usado para modelagem 3D e animação digital) e o próprio After Effects, nos deparamos com uma lógica diferente. Esses softwares não simulam qualquer mídia física já existente. Ao invés disso, eles se valem de métodos de trabalho e técnicas específicas de inúmeras mídias diferentes, a fim de combiná-los e remixá-los. (E claro, adicionam novas possibilidades específicas da computação, por exemplo, a possibilidade de calcular automaticamente os valores intermediários entre os keyframes). Por exemplo, o software de modelagem 3D mistura técnicas de criação que anteriormente eram “conectadas” a diferentes mídias físicas: a possibilidade de mudar a curvatura de uma forma arredondada como se fosse feita de argila, a possibilidade de construir uma estrutura a partir de formas geométricas primitivas da mesma forma que uma casa pode ser construída a partir de tijolos retangulares idênticos etc.
De forma similar, como nós vimos, a interface original do After Effects, ferramentas e fluxo de trabalho foram baseados em técnicas da animação e do design gráfico. (Também podemos encontrar vestígios do cinema e da computação gráfica 3D). Entretanto, o resultado não é simplesmente a soma mecânica de todos os elementos que vieram de mídias anteriores. Ao invés disso, como o software mistura as técnicas e os métodos de trabalho de variadas mídias que ele mesmo simula, o resultado refere-se às novas interfaces, ferramentas e fluxos de trabalho com a sua própria lógica distinta. No caso do After Effects, o método de trabalho que ele apresenta não é propriamente animação, nem design gráfico, nem cinema; mesmo que se baseie em todos esses campos. Da mesma forma, a linguagem visual da mídia produzida com este e outros softwares similares também acaba sendo diferente das linguagens das imagens em movimento que existiam anteriormente.
Em outras palavras, a Revolução de Veludo desencadeada pelo After Effects e outros softwares não tornou apenas comum as animações gráficas de artistas e designers, como John e James Whitney, Norman McLaren, Saul Bass, Robert Abel, Harry Marks, R/Greenberg, entre outros que produziam anteriormente utilizando stop motion, impressão óptica, hardware dedicado a efeito em vídeo dos anos 1980, e outras técnicas e tecnologias personalizadas. Ao invés disso, culminou no desenvolvimento de inúmeras novas estéticas visuais que até então não existiam.
Este artigo apenas inicia uma discussão preliminar sobre a lógica comum compartilhada por essas estéticas, os artigos seguintes examinarão suas outras características.
Notas
1. Veja FREIRE, Paulo. Pedagogia do Oprimido. Rio de Janeiro: Paz e Terra, 2016.
2. Lev Manovich é um teórico da cultura digital, escritor, e artista. Incluso na lista das “25 personalidades que estão moldando o futuro do design” e na lista das “50 personalidades mais notáveis que estão construindo o futuro”. Atualmente é docente no “The Graduate Center, City University of New York”, e diretor do “Cultural Analytics Lab”. Nas últimas três décadas, publicou 180 artigos e 15 livros incluindo “Cultural Analytics, Instagram and Contemporary Image”, e “The Language of New Media” descrito como “o trabalho mais significativo e abrangente sobre a história da mídia desde Marshall McLuhan”. (manovich.net/index.php/about. Acesso em 09 out 2022.)
3. ARMSTRONG, Helen (ORG). Teoria do Design Gráfico. São Paulo: Ubu, 2019.
4. MANOVICH, Lev. Importação/Exportação: Fluxo de Trabalho no Design e Estética Contemporânea In: ARMSTRONG, Helen (ORG). Teoria do Design Gráfico. São Paulo: Ubu, 2019. p.168.
5. O artigo original, “After Effects, or Velvet Revolution Part 1”, pode ser encontrado no site do Lev Manovich (manovich.net). É importante ressaltar, que apesar de ter sido publicado em 2006, o artigo mostra-se extremamente atualizado e essencial para compreendermos o desenvolvimento do Motion Design contemporâneo.
6. Aline Silva Okumura é Artista Plástica e Docente de Design Digital com forte atuação na condução de projetos interdisciplinares na área de Design em mídias digitais interativas, computação gráfica, multimídia e desenvolvimento front-end.
7. Godoy
8. No artigo original, o autor faz menção a um capítulo específico do livro citado: HUYSSEN, Andreas. After the Great Divide: Mapping the Postmodern. (Bloomington, Indianapolis: Indiana University Press, 1986). p. 196. Infelizmente esse livro ainda não foi publicado no Brasil, mas é possível encontrar o texto em questão em uma antologia organizada por Heloísa Buarque de Hollanda intitulada “Pós-Modernismo e Política”, da qual retiramos a tradução desse trecho: BUARQUE DE HOLLANDA, Heloísa (ORG.). Pós-Modernismo e Política: Mapeando o Pós Modernismo. (Rio de Janeiro, RJ: Rocco, 1991). p.44. (N.T.)
9. Veja CARLSON, Wayne. A Critical History of Computer Graphics and Animations. Capítulo 2: The Emergence of Computer Graphics Technology <https://ohiostate.pressbooks.pub/graphicshistory/>
10. O Paintbox, lançado em 1981 pela fabricante Quantel, foi um conjunto de hardware e software voltado especificamente para a computação gráfica. Um dos trabalhos mais memoráveis produzido através dele foi a capa do álbum Miracle da banda Queen. (N.T.)
11. https://ohiostate.pressbooks.pub/graphicshistory/chapter/6-7-pacific-data-images-pdi/
12. O link original para a entrevista de Mindi Lipschultz realizada em 2004 para o “Compulsive Creative”, encontra-se quebrado. Entramos em contato com o site na tentativa de conseguir um link atualizado, mas não obtivemos resposta. (veja http://www.compulsivecreative.com/) (N.T)
13. Na realidade, o “NewTeck Video Toaster” lançado em 1990 foi o primeiro sistema de produção de vídeo para computador pessoal que incluía switcher de vídeo, gerador tipográfico, manipulação de imagem e animação. Devido ao seu baixo custo, o Video Toaster foi muito popular na década de 1990. No entanto, no contexto do meu artigo, o After Effects é mais importante porque, como explicarei mais adiante, iniciou um novo paradigma para o design de imagem em movimento que é bem diferente do habitual paradigma da edição de vídeo endossado por sistemas como o Toaster.
14. O autor se refere a Silicon Graphics, Inc., fabricante de hardware de alta performance fundada em 1981 na Califórnia, adquirida em 2009 pela Rackable Systems que batizou a fusão como Silicon Graphics International Corp. (estrategicamente mantendo a sigla SGI). Mais recentemente, em 2016 a nova SGI foi adquirida pela Hewlett Packard. (N.T.)
15. Eu extrai esses exemplos de três fontes já publicadas, dessa forma elas podem ser encontradas com facilidade. A primeira é o DVD “I Love Music Videos” lançado em 2002 que contém uma seleção de quarenta videoclipes de bandas conhecidas da década de 1990 e começo de 2000. A segunda é o DVD “onedotzero_select” lançado em 2003 com uma seleção de dezesseis produções, entre elas curtas-metragens, trabalhos comerciais, e performances de Live Cinema apresentadas no festival onedotzero em Londres. O terceiro é um DVD com amostras de trabalhos do outono de 2005 da Imaginary Forces, que está entre os melhores estúdios de motion graphics atuais. O DVD inclui aberturas e teasers de longas-metragens, aberturas de programas de TV, identidades e pacotes gráficos de canais de TV por assinatura. A maioria dos vídeos que mencionarei podem também ser encontrados na internet.
16. O trecho foi retirado da tese de mestrado do Matt Frantz, “Changing Over Time: The Future of Motion Graphics”. No original, havia um link para a tese que não se encontra mais online. Ao entrarmos em contato com Matt por e-mail dizendo que gostaríamos de atualizar o link, ele nos informou que considera a tese antiga e defasada, uma vez que tenha sido publicada há quase 20 anos, e por conta disso prefere não disponibilizá-la. Entretanto deixaremos ainda o link para o site de Matt para que, quem tiver interesse, possa apreciar o seu trabalho gráfico: www.mattfrantz.com (N.T.)
17. Incluso no DVD onedotzero_select 1. Versão online em <https://vimeo.com/25434394>.
18. Em dezembro de 2005, participei do festival de mídia Impact em Utreque e perguntei ao diretor do festival qual havia sido naquele ano a porcentagem de inscrições recebidas de trabalhos que utilizavam uma linguagem visual híbrida em comparação aos vídeos e filmes padrões. Sua estimativa foi algo em torno da metade. Em janeiro de 2006 fiz parte da equipe de revisão que julgou os projetos de graduação dos alunos da SCI-ARC, uma conhecida escola de arquitetura voltada para pesquisa em Los Angeles. De acordo com a minha estimativa informal, aproximadamente metade dos projetos apresentava uma geometria curva e complexa típica do Maya, que é um software de modelagem comumente usado por arquitetos. Uma vez que, tanto o After Effects quanto o antecessor do Maya (Autodesk Alias), tenham sido lançados em 1993 – acredito que essa semelhança na quantidade de projetos que utilizam novas linguagens graças a esses softwares é bastante reveladora.
19. Live Cinema (cinema ao vivo) é um tipo de performance audiovisual em que a montagem e a manipulação da imagem acontece em tempo real. Alguns exemplos de Live Cinema são os trabalhos de VJs (video jockeys) e instalações artísticas audiovisuais. (N.T.)
20. Paul Spinrad, ed.,The VJ Book: Inspirations and Practical Advice for Live Visuals Performance (Feral House, 2005); Timothy Jaeger, VJ: Live Cinema Unraveled (disponível em www.vj-book.com).
21. Jay David Bolter and Richard Grusin, Remediation: Understanding New Media (The MIT Press, 1999.)
22. “Efeito invisível” é o termo embrionário utilizado na indústria. Por exemplo, em 1997 o filme Contact dirigido por Robert Zemeckis foi indicado no VFX HQ Awards nas seguintes categorias: Melhores Efeitos Visuais, Melhor Sequência (The Ride), Melhor Cena (Powers of Ten), Melhores Efeitos Invisíveis (Dish Restoration) e Melhor Composição. <www.vfxhq.com/1997/contact.html>
23. No caso do vídeo, uma das principais razões que dificultavam a combinação de múltiplos visuais era a rápida degradação do sinal de vídeo quando uma fita analógica era copiada mais de duas vezes, de tal forma que a cópia ia perdendo os padrões de qualidade de transmissão.
24. No brasil não costumamos utilizar o termo “vídeo industrial”, mas é um conceito muito parecido com o que chamamos de “vídeo corporativo” ou “vídeo institucional”. (N.T)
25. Jeff Bellantfoni e Matt Woolman, Type in Motion (Rizzoli, 1999), 22-29.
26. Embora, é claro, os efeitos especiais em longas-metragens muitas vezes combinarem diferentes mídias, no caso de Zeman elas foram combinadas para criar um único espaço ilusionístico (veja sobre o “ilusionismo” nas artes plásticas, sobretudo no período Barroco. [N.T]), ao invés de serem justapostas pelo efeito estético, como nos filmes e aberturas de Godard, Ferro e Bass.
27. A impressão óptica é um processo de “retrofotografar uma imagem em um novo pedaço de filme. É como se uma câmera estivesse apontada para um projetor. O Projetor é carregado com uma imagem positiva e a câmera captura essa imagem, quadro a quadro. É possível colocar filtros, lentes e máscaras no caminho da projeção para obter os efeitos desejados, assim como misturar duas ou mais projeções (Pinteau, 2004).” (GOMIDE, João Victor Boechat. Imagem Digital Aplicada: Uma Abordagem para Estudantes e Profissionais. São Paulo: Elsevier, 2014. p.90.) (N.T.)
28. Livro ainda não publicado no Brasil. (N.T.)
29. Thomas Porter e Tom Duff, “Compositing Digital Images,” ACM Computer Graphics vol. 18, no. 3 (Julho 1984): 253-259.
30. Devo observar que a funcionalidade de “composição” foi gradualmente adicionada à maioria dos editores não-lineares; dessa forma, hoje a diferença entre as interfaces do After Effects ou do Flame e as interfaces do Avid e do Final Cut é muito menor.
31. No original o autor utiliza a sigla “NLE” (non-linear editing); aqui no Brasil não existe nenhuma sigla equivalente. (N.T.)
32. Durante o processo de industrialização da Animação, passou-se a utilizar folhas de celulóide transparentes para facilitar e agilizar o trabalho, uma vez que ilustrando a animação em camadas, não era mais necessário redesenhar a cena inteira a cada frame. Mais tarde as folhas de celulóide seriam substituídas pelo acetato. (N.T.)
33. Qtd. in Michael Barrier, Oscar Fishinger. Motion Painting No. 1 <http://www.michaelbarrier.com/Capsules/Fischinger/fischinger_capsule.htm>
34. Embora o designer gráfico não precise esperar até que o filme seja desenvolvido ou o computador termine de renderizar a animação, o design tem a sua própria etapa de “renderização” – fazer provas. Tanto na impressão digital quanto na offset, após a conclusão do projeto, ele é enviado para a impressora que produz as impressões de teste. Se o designer encontrar algum problema, como cores incorretas, ele ajusta o projeto e imprime novas provas.