fbpx
Para continuar independente, a Recorte conta com o apoio de Conheça Edgard Kozlowski
Assine Menu
29 de novembro de 2023

Como os filtros de aparência reproduzem a opressão nas mulheres

A ilustração que acompanha este ensaio foi cedida pela artista Carolina Guimarães (@querolsquima no Instagram).

Quando assisti a Years and Years, minissérie coproduzida pela HBO e pela BBC em 2019, uma das personagens despertou meu interesse: Bethany. No contexto distópico em que vive, a adolescente sempre utiliza um filtro de bichinho no rosto, algo que a aproxima do seu desejo de se tornar digital como os arquivos que subimos na nuvem. Quando comecei a pesquisar sobre o fenômeno social dos filtros de aparência do Instagram –  que se popularizaram no quase extinto Snapchat e agora fazem parte do dia a dia de quem usa o TikTok –, descobri que a vontade de transfigurar sua própria aparência por meio da tecnologia de Realidade Aumentada (RA) em toda e qualquer interação social é surpreendentemente comum. 

Entretanto, a maior parte dos filtros que usamos e vemos em ação no nosso cotidiano não é tão divertida quanto os bichinhos que Bethany utiliza na série, muito menos se enquadra na denominação duvidosa “lúdica e experimental” que o Snapchat atribuiu em 2015 às camadas de “embelezamento” da rede. O mesmo equívoco foi repetido pelo Instagram, que também classificou seus filtros como “personalização lúdica” em 2017, quando incorporou a ferramenta à plataforma. Para piorar, eles ainda foram categorizados como filtros de “aparência” na rede social. No ano seguinte, a feature foi ampliada, com a possibilidade de criação de filtros pelas próprias pessoas usuárias através do programa gratuito Spark AR Studio, mais recentemente renomeado para Meta Spark Studio. Assim, abriu-se um mundo de criação e compartilhamento de novos filtros, disponibilizados após avaliação prévia da plataforma.

No livro O Instagram está padronizando os rostos?, a pesquisadora Camila Cintra apresenta um dos efeitos que surgem a partir do uso constante desses filtros: a “Dismorfia do Snapchat”. Enquadrada como um transtorno dismórfico corporal (TDC) na psicologia clínica, além de causar preocupação compulsiva em relação à  aparência e aos pequenos aspectos dela, essa disfunção mental leva à busca, sobretudo no recorte das mulheres, por intervenções estéticas que imitem permanentemente o resultado das fotos filtradas. Entre os principais responsáveis pela dismorfia do Snapchat, estão os filtros que escancaram as características visuais consideradas como o padrão de beleza da sociedade. Assim, levantam discussões sobre racismo, ao embranquecer a pele e afinar o nariz; quanto à gordofobia, por emagrecer e afinar as linhas do rosto; em relação ao etarismo, por eliminar marcas e rugas na pele; e à classe, que está condicionada não ao patrimônio material absoluto de uma pessoa, mas sim ao orçamento disponível para gastar em  procedimentos estéticos, dentre outras modificações.

Vale ressaltar que o debate de classe permeia não só os valores que as mulheres estão dispostas a gastar para alcançar essa padronização estética, mas também o acesso a um smartphone e à própria internet. 

Ainda de acordo com Camila Cintra, a grande popularização dos filtros e das suas camadas de “embelezamento” pode ser atribuída ao caráter centrado na experiência individual da ferramenta – pela possibilidade de testar as “melhores edições” para o seu próprio rosto e, dessa forma, se comparar com a versão “mais bela de si mesmo”. Assim, cada um pode expressar facilmente as muitas opções do que lhe agrada como sujeito e do que agrada ao outro como sujeito, usando o engajamento na rede social como métrica de aprovação.

1

Segundo o artigo “Instagram Revenue and Usage Statistics (2023)”, da plataforma Business of Apps, o número de usuários da rede social aumentou de 110 milhões de usuários em 2013 para 2,270 milhões em 2022.

Não por acaso, dados de 2013 da Sociedade Brasileira de Cirurgia Plástica demonstraram que o número de procedimentos estéticos realizados por mulheres entre 14 e 18 anos – faixa etária que já tem permissão para usar redes sociais no país – aumentou 141% nos últimos 10 anos, período que coincide com o crescimento do Instagram.1 Na reportagem “Os filtros do Instagram estão mudando a nossa aparência na vida real?”, publicada pela revista Elle Brasil em 2020, Natália Eiras cita um estudo de 2017 da Academia Americana de Cirurgiões Plásticos. Na pesquisa, 55% das pessoas entrevistadas que se submeteram à rinoplastia foram motivadas pela vontade de sair melhores em selfies. Somado a isso, em 2021, a International Society of Aesthetic Plastic Surgery declarou que o Brasil é o segundo país que mais realiza procedimentos estéticos no mundo. Ainda de acordo com a associação, lipoaspiração, aumento dos seios, cirurgia de pálpebras, rinoplastia e abdominoplastia são as cirurgias plásticas mais procuradas pelas brasileiras; entre os procedimentos não cirúrgicos, aplicações de botox e de ácido hialurônico são os procedimentos mais procurados pelo mesmo público, correspondendo ao estereótipo de magreza e de jovialidade estimulado pelos filtros.

O Instagram é uma plataforma que estimula a comparação social, baseada em uma aparência irreal; por isso, ele se estrutura como um dos principais motivadores para o emagrecimento ou desenvolvimento do medo de ganhar peso.
2

Dado retirado do artigo “Fatores de risco para o desenvolvimento de distúrbios alimentares: um estudo em universitárias”, de Giovanna Fiates e Raquel de Salles.

Outra consequência associada ao fenômeno dos filtros é a alteração do comportamento alimentar das mulheres – grupo que sofre 95% dos casos de transtornos alimentares2. O Instagram é uma plataforma que estimula a comparação social, baseada em uma aparência irreal; por isso, ele se estrutura como um dos principais motivadores para o emagrecimento ou desenvolvimento do medo de ganhar peso. Só de identificar essas edições imagéticas e enumerar esses dados, já podemos reconhecer algumas opressões sociais reproduzidas nos filtros de aparência, são elas: a opressão de gênero que se expressa na predominância desses estereótipos de beleza imposto às mulheres desde o século o XVI e em reafirmação algorítmica no século XXI de acordo com Denise Sant’Anna, historiadora de beleza no Brasil; a de raça, por meio da retratação de beleza com traços físicos embranquecidos; a de classe, que se dá pelo poder aquisitivo necessário para a realização de procedimentos estéticos; e a de faixa etária e de corporalidade, com a associação direta de “beleza” à juventude e à magreza.

A escritora e socióloga estadunidense Patricia Hill Collins, referência em interseccionalidade, analisa o imbricamento dessas categorias em suas obras. Partindo-se de uma perspectiva relacional, a interseccionalidade, em seus postulados, contribui para uma mudança de paradigma na investigação e na práxis crítica dos fenômenos sociais, uma vez que os paradigmas tradicionais trabalhavam a desigualdade de gênero, a desigualdade racial e a desigualdade social como fenômenos distintos e desconectados, diferentemente da interseccionalidade, que desafiou fundamentalmente essa suposição dada como certa, e, ao usá-la como heurística metodológica de pesquisa e ação social, desenvolveu-se um novo conhecimento como evidência social para argumentos interseccionais. 

Collins organiza, como estratégia analítica, os modos de opressão na “matriz de dominação social”, caracterizando onde as opressões interseccionais se originam, se desenvolvem e se atualizam em termos históricos e sociais, e, assim, estão inseridas nos campos de conhecimento. Nesse sentido, as matrizes de dominação seriam caracterizadas, por um lado, por um arranjo específico de sistemas sobrepostos e relacionais de opressão, como gênero, raça, classe, sexualidade, etnia e idade; e, por outro, por uma organização específica de suas esferas ou domínios de poder.

Para a autora, na matriz de dominação, o conhecimento é socialmente situado e contextual; os grupos marginalizados estão localizados em posições que lhes possibilitam um maior conhecimento dos fatos sociais, produzindo questionamentos de forma mais crítica aos grupos privilegiados; e as pesquisas voltadas a analisar as esferas ou domínios de poder devem refletir criticamente a complexidade dos aspectos da vida das pessoas marginalizadas.

3

Pensamento formulado a partir do livro Bem mais que ideias: a interseccionalidade como teoria social crítica, publicado pela editora Boitempo (2022).

A interseccionalidade está em uma posição de fundamentar e de desenvolver análises teóricas e práxis críticas do mundo social e também pode desenvolver uma teoria social crítica que reflita a ampla gama de ideais e agentes que hoje estão sob seu amplo guarda-chuva. No entanto, não é possível fazer isso sem pensar de forma sistemática nos contornos da teoria social crítica, bem como em seu próprio conhecimento teórico e nas práticas de teorização. Como um trabalho em andamento, a interseccionalidade é uma teoria social crítica em construção que já pode estar fazendo um trabalho teórico substancial sem ser conhecida como tal.3 

Filtros de aparência são uma tecnologia opressiva, porque revelam a discriminação estética de associar beleza a pessoas brancas, magras, jovens e ricas e, em antítese, feiura a pessoas negras, gordas, velhas e pobres. Dessa maneira, reproduzem ofensas morais a grupos minorizados, que, por sua vez, são potencializadas por sua alta circulação imagética e midiática.

 Esses filtros são, portanto, interfaces de aparência digital vinculados a princípios de mediação automatizada, que implicam decisões de visibilidade e de invisibilidade de conteúdos algoritmicamente performados. Em síntese, essa personalização de conteúdos e de recomendações algorítmica no feed e nos stories é feita a partir da coleta de informações que a pessoa usuária fornece por meio dos conteúdos publicados por ela mesma como fotos, vídeos, comentários, mensagens e áudios, do tipo de publicação com o qual a pessoa interage e do modo como faz isso na rede social. Quem são seus amigos, seguidores e conexões? Quais hashtags utiliza? Em que horários e com que frequência usa o Instagram? 

Um exemplo que pode nos ajudar a entender como a “datificação social” dos algoritmos performa opressões interseccionais no Instagram é o experimento algorítmico realizado pela influencer Polly Oliveira, que acumula um milhão de seguidores em sua conta na rede. Na reportagem “O algoritmo do padrão”, de Giuliana Mesquita, publicada em março de 2021 na revista Elástica, Oliveira conta que todas as vezes em que postava fotos ou vídeos dançando de biquíni ou lingerie, entre 2019 e 2020, recebia várias notificações sobre a possibilidade de perder a sua conta por infringir as diretrizes da rede. Como criadora de conteúdos sobre autoestima, corpo livre e liberdade feminina, esse tipo de representação sempre fez parte de sua abordagem dialógica sobre os padrões de “beleza” impostos pela sociedade ocidental às mulheres.

Até que, no fim de 2020, a influencer teve a sua conta derrubada na plataforma. Quando ela finalmente conseguiu recuperá-la, iniciou um projeto interativo para provar a suspeita que construiu no decorrer do seu trabalho: a de que os algoritmos do Instagram não entregavam seu conteúdo aos seguidores, mas sim derrubavam ou boicotavam o que fosse produzido por corpos como o dela, fora do padrão branco, magro e jovem. Chamando essa empreitada de #OExperimento, Polly utilizou as seguintes estratégias: primeiro, avisou seus seguidores sobre o projeto e os seus objetivos investigativos; em seguida, começou a postar em sua conta sobre produtos emagrecedores milagrosos, disse que tinha realizado cirurgias plásticas, escovou seu cabelo cacheado para que ele ficasse liso e publicou fotos, editadas no Photoshop, que mostravam um corpo exageradamente magro e jovem.

Como resultado, Polly Oliveira identificou que esse tipo de conteúdo fiel aos estereótipos privilegiados teve grande alcance, aceitação e entrega na rede social, ao contrário dos seus antigos conteúdos que exaltavam as suas reais características físicas. Assim, a plataforma comprovou o que ela sempre afirmou de forma bastante crítica: para ter aceitação, engajamento e visibilidade na rede social, era preciso um processo de autoedição – só assim  seria ouvida e pareceria “aceitável”. Ou seja, embora ela tentasse utilizar o Instagram como ferramenta de trabalho e ação social, a própria plataforma estava minando seu engajamento. Mesmo que a influencer estivesse “trabalhando para a plataforma” ao conseguir reter a atenção da pessoa usuária, o Instagram não estava satisfeito: a performance algorítmica valorizava exatamente as mesmas edições e discursos imagéticos encontrados nos filtros de aparência pré-programados. 

Mas como esse mecanismo funciona? Os conteúdos estereotipados pelos filtros com os quais as pessoas usuárias engajam e se identificam enviam para o Instagram continuamente centenas de métricas, dados e vetores. Essas métricas determinam o quanto e para quem eles serão exibidos, em quais horários serão entregues e em relação a quais outras imagens ou vídeos eles serão encadeados – o que equivale a uma eficácia tecnológica que não leva em consideração a complexidade dos fatores sociais ancorados às postagens com filtro. 

Assim, as pessoas usuárias são levadas a interagir com outros conteúdos semanticamente compatíveis com os filtros usados por ela, como páginas pautadas pela indústria da beleza, anúncios de produtos cosméticos, publicações acerca de métodos de emagrecimento ou mesmo perfis de profissionais que realizam procedimentos estéticos que há pouco nem sequer existiam.

As decisões algorítmicas trazem impactos em diferentes níveis sociais, ao modular o comportamento e a conduta das pessoas usuárias de forma midiática, estimulando-as a reproduzir relações de poder e opressões de gênero, raça, classe, faixa etária e corporalidade já existentes e estruturadas na sociedade.

Tarcízio Silva, autor do livro Racismo algorítmico: inteligência artificial e discriminação nas redes (Edições Sesc SP, 2022), fundamenta que a questão é igualmente complexa e opressiva ao afirmar que esses sistemas algorítmicos tomam decisões por nós e sobre nós com uma frequência cada vez maior, à medida que assumem um aspecto mais rotineiro. Por isso, desde 2017, ele registra e esmiúça esses casos no site Linha do Tempo do Racismo Algorítmico, para demonstrar a recorrência e relevância dessa problemática social. O contato com a pesquisa deixa evidente que essas decisões algorítmicas trazem impactos em diferentes níveis sociais, ao modular o comportamento e a conduta das pessoas usuárias de forma midiática, estimulando-as a reproduzir relações de poder e opressões de gênero, raça, classe, faixa etária e corporalidade já existentes e estruturadas na sociedade.

4

A autora discute as quatro esferas no livro O pensamento feminista negro: conhecimento, consciência e política do empoderamento (Boitempo, 2019).

Essas relações de poder são divididas, retomando Patricia Hill Collins, em quatro esferas4. A primeira delas é a esfera estrutural, que ordena as opressões por meio de instituições hierarquizadas, reproduzindo subordinações de poder – por exemplo, a distribuição desigual dos recursos sociais do trabalho, do governo, da educação, dos acessos, dos direitos e da moradia. Já a esfera disciplinar administra as opressões ao utilizar hierarquias burocráticas e técnicas de vigilância social. A esfera cultural, por sua vez, justifica as opressões ao utilizar ideias e ideologias que despolitizam os grupos oprimidos. E, finalmente, a esfera interpessoal naturaliza as opressões na experiência cotidiana.

Como essas categorizações se configuram nos filtros de aparência? No domínio de poder estrutural, é evidente que as posições de liderança no Instagram são dominadas por homens brancos, algo que vem desde seus cofundadores, Mike Krieger e Kevin Systrom, e do atual dono, Mark Zuckerberg, fundador da Meta, que coloca outros homens brancos em posições de grande prestígio na empresa. Sem refletir sobre o lugar que ocupam enquanto tomadores de decisão em escala global, esses líderes viabilizam as opressões sociais aplicadas às mulheres, das quais são cobrados padrões estéticos inalcançáveis. No domínio disciplinar, a performatividade algorítmica invisibiliza as belezas diversas à margem dos padrões reproduzidos pelos filtros, com cálculos computacionais baseados em decisões enviesadas e preconceituosas que regem de forma invisível as interações nas mídias sociais. No domínio cultural de poder, temos a construção de um imaginário visual coletivo de quais elementos são agradáveis e desagradáveis no corpo das mulheres. 

Por fim, no domínio interpessoal, temos a beleza dos filtros como capital de sucesso e aceitação, funcionando como moeda de curtidas e comentários, bem como de trocas afetivas, econômicas e sociais. Graças a essa dimensão interpessoal, é comum que as empresas de tecnologia argumentem que os efeitos colaterais das suas plataformas são consequências imagéticas e algorítmicas ocasionadas pelo componente humano de pessoas usuárias. Ou seja, as plataformas se eximem da responsabilidade ao colocar os dados de interação como o principal fator das consequências negativas que geram, ignorando as relações de poder por trás da tecnologia. Por essa ótica, a culpa da pressão sentida pelas mulheres em seus mais variados aspectos é de quem usa a rede social, e não da própria rede social. Com isso, os humanos por trás das grandes corporações minimizam sua própria negligência em não propor saídas para as questões éticas e de bem-estar que são deixadas em segundo plano e que podem causar consequências nefastas durante o uso prolongado dessas plataformas – seja pelos filtros que modificam a aparência, seja pelas artimanhas para prender alguém por muito tempo no celular.

Vilém Flusser (1920-1991), em seu livro O mundo codificado: por uma filosofia do design e da comunicação (Ubu, 2017), debate sobre a falta de responsabilidade moral e política que pode atravessar a prática do design e elenca três razões para fundamentar um modelo de “código ético” para o campo, são elas: a necessidade de definir normas e responsabilidades que guiem o processo criativo dos designers; a identificação de informações e ações no processo de projetos cooperativos; e a reconsideração de responsabilidade atribuída exclusivamente às pessoas que escolheram ou se identificaram com o projeto.

Essas normas dialogam com discursos sociais que reivindicam respostas do governo e das instituições privadas quanto às consequências negativas que a tecnologia pode causar. Uma dessas respostas, de acordo com o advogado Adilson Moreira, vem do combate ao racismo recreativo relacionado à injúria racial – classificada como crime pela Lei n. 14.432, que entrou em vigor no dia 11 de janeiro de 2023. Essa prática consiste na ofensa da dignidade e do decoro de uma pessoa por meio de expressão de desprezo e desrespeito, podendo assumir formas diversas como gestos, palavras, imagens, desenhos, escritos ou caricaturas.

O fato de os filtros de aparência serem projetados por desenvolvedores e avaliados pela plataforma do Instagram os torna um projeto de interfaces cooperativo e com responsabilidades coletivas, como afirma Flusser na sua segunda razão para a criação de um código ético de projeto em design, ao explicitar a necessidade de impedir que a interface da plataforma e os seus critérios avaliativos não fomentem consequências negativas. Somados a isso, os filtros de aparência são desenvolvidos para performar algoritmicamente os interesses das pessoas usuárias, atribuindo facilmente a responsabilidade ética às pessoas que se identificam e que consomem esses filtros nas mídias sociais, convergindo com a terceira razão do código ético de projeto em design de Flusser, ao atribuir exclusivamente a responsabilidade às pessoas usuárias como escolha de uso e de interação, e não como uma escolha de uso e de interação construída socialmente por meio de um ideal de “beleza” e de suas relações de poder sociais.

Os filtros de aparência não são artefatos neutros. Portanto, a criação de interfaces em performance algorítmica pressupõe responsabilidade ética.

Em resumo, os filtros de aparência não são artefatos neutros. Portanto, a criação de interfaces em performance algorítmica pressupõe responsabilidade ética e, consequentemente, a liberdade das mulheres, uma vez que, nesse processo criativo, a responsabilidade está vinculada à decisão de responder pelo projeto de filtro de aparência opressivo interseccionalmente e todas as dimensões e dominações que lhe permeiam: estrutural, disciplinar, cultural e interpessoal. Como designers, precisamos dedicar mais atenção à interface e principalmente à interface para mídias sociais ao configurá-la como seu design na rede.

Para tanto, a interseccionalidade é uma ferramenta analítica que indica, desde seus pressupostos teóricos e de práxis crítica, a importância de saber e de se informar sobre a origem dessas identificações com as relações de poder que atravessam não só as mulheres, mas também as grandes corporações, o design de interfaces e suas escolhas projetuais que permeiam a linguagem das novas mídias. Além disso, ela também pode ajudar a confrontar as escolhas projetuais performadas e estereotipadas pelos filtros e colaborar com a educação midiática. Essa perspectiva reconhece que as mídias e outros provedores de informação e de comunicação têm um papel central na maneira como as percepções, as crenças e as atitudes são moldadas na sociedade, de modo que possamos fundamentar nossas competências e habilidades para a avaliação crítica dos textos de mídia e das fontes de informação, bem como a produção e o uso desses conteúdos midiáticos.

Assim, é preciso embasar a compreensão da forma como as informações midiáticas são organizadas, representadas e analisadas criticamente na rede e em como elas podem influenciar um indivíduo ou um grupo na sociedade. Com isso, a esperança é que a educação midiática nos leve consciente e criticamente ao acesso a novas oportunidades de ensino, de aprendizado, de trabalho e de renda, e na sua participação na democracia, no diálogo intercultural, no respeito às diversidades e nas práticas sociais de modo geral. Uma sociedade letrada digitalmente permite às pessoas que reconheçam seus direitos e suas responsabilidades midiáticas e informacionais em rede e promove o desenvolvimento e a aceitação de sistemas midiáticos diversos, abertos, livres, independentes e pluralistas. Para isso, é preciso aperfeiçoar a qualidade das informações que esses suportes fornecem.

Porém, devemos avançar a educação midiática não só pela representação problemática das mulheres nos filtros de aparência, nem somente para atentarmos para o respeito, para a ética, para a diversidade cultural, para a saúde e para o bem-estar dos indivíduos ou grupos sociais – o que já não seria pouca coisa. Mais do que isso, devemos avançar justamente devido ao crescimento, ao uso e à atualização das tecnologias digitais, uma vez que realizar a  educação midiática significa nos concentrarmos não só na conscientização crítica em torno dessas tecnologias, mas também nas competências e habilidades necessárias para sobreviver tecnicamente na era digital.

Nos preocupamos em aprender a utilizar os filtros em nossas postagens, em entender o metaverso, decifrar o ChatGPT, visualizar artificialmente como nossos filhos seriam, postar nossa versão da Pixar, atualizar nossas redes sociais e explorar suas novas funções, mas é urgente que também nos preocupemos com os domínios de poder estruturados e atualizados nessas tecnologias. Este texto é uma chamada para que a gente passe a se preocupar com as opressões tecnológicas tanto individuais quanto coletivas.

é paraense, designer e pesquisadora nortista pelo Brasil! Atualmente está cursando doutorado em Design e Expressão Gráfica pela UFSC com interesse em interfaces, tecnologias, mídias e performatividade algorítmica na perspectiva interseccional de gênero. É mestra em Tecnologias da Inteligência e Design Digital pela PUC-SP e fez graduação em Design de Produto na UEPA.
Apoie a Recorte
A Recorte pode ajudar o seu negócio a crescer. Conheça nossos modelos de apoio e junte-se às empresas, empreendedores individuais e iniciativas que acreditam que a informação e o debate também são pilares do design.