Neste fim de semana, tive a feliz oportunidade de prosseguir no debate sobre as “redes sociais” com duas das pessoas com quem hoje eu compartilho do maior amor e da maior camaradagem na realização das nossas vontades. Este longo longo texto será um “brain dump” sobre os meus pensamentos mais atualizados sobre esta questão me oferecimento a essas duas pessoas.
Hoje, há grandes controvérsias sobre as assim chamadas “redes sociais”, em particular em três dimensões: a da privacidade, a do viés e a da mercantilização. Cada uma dessas controvérsias nos afeta em diferentes medidas: o problema da privacidade extremamente sensível para o ativismo em causas políticamente perigosas, do tipo que leva as pessoas a sofrer exclusão e violência; o problema do viés particularmente importante no debate político; o problema da mercantilização especialmente pertinente para quem tem objetivos desalinhados com o mercado no sentido de comércio, quem não está tentando vender nada.
É da minha natureza reduzir problemas humanos complicados para um núcleo de vontande, ou seja, o quê se quer fazer e por quê não se está fazendo. Minha experiência comigo mesmo é a de, por um lado muito demoradamente chegar a soluções, por outro lado rapidamente diferenciar as causas internas das causas externas: tem alguém me impedindo? sim, não? como que está me impedindo?
Me debruçando em pensamento sobre o caso a partir do meu próprio núcleo de vontade, identifiquei que dos três casos acima aquele que mais me afeta é a mercantilização. Aquilo que eu quero fazer não tem nenhum alinhamento com as atividades de comprar e vender, contratar e prestar serviço. Mas antes de discutir a minha elaboração dessa questão, quero despejar outra linha de pensamento, aquela que pertence ao como fazer e quem me impede.
Hoje boa parte daquilo que se chama “conteúdo” existe como objetos dentro de coisas que às vezes se chama “plataformas” e às vezes se chama “redes sociais”. Essas estruturas alcançaram um nível tamanho que estão agora sendo identificadas como significativos atores políticos em eleições. De uma perspectiva mais humilde, as pessoas estão começando a notar que vêm existindo como “pessoas digitais” dentro dessas estruturas e que portanto elas se tornaram uma propriedade dessas estruturas, que literalmente as possuem na medida em que as “hospedam”.
Eu acho que pra entender essas estruturas, é preciso lembrar de onde elas vieram, que caminho nos trouxe até elas, que história as justifica. Pra poder entender qual é o problema com o “algoritmo” eu acho que é preciso entender por quê nós temos um “algoritmo” pra começo de conversa, e por quê apesar de semanalmente reclamar do “algoritmo”, nós diariamente fazemos uso dele. Eu acredito que este entendimento é crucial para que se possa entender do quê nós precisamos, e do quê nós não precisamos, pra poder então construir uma nova coisa, útil e proveitosa. Então, eu peço a sua paciência porque eu vou demorar um pouco pra contar essa história.
Na fronteira histórica entre o antes e o depois da Internet, havia o microcomputador e o modem. Quando essas coisas se tornaram acessíveis o suficiente, eventualmente surgiram fornecedores de serviço próprios para elas. O lendário Computer Bulletin Board System deu nome a toda uma geração de serviços chamados BBS. As pessoas conectavam através de linha telefônica a esses sistemas para obter serviços de troca de mensagem e arquivos. O caso básico do BBS, o “bulletin board”, teve seu desenho original baseado na ideia de um “quadro de avisos”, do tipo que a gente espeta uma nota com uma tachinha. Esses sistemas eram totalmente isolados entre si. A ideia de um usuário de um serviço mandar uma mensagem para outro usuário de outro serviço era nonsense.
A Internet foi desenhada como um mecanismo de interconexão entre redes: o nome “internet” representa se tratar de uma grande rede feita de pequenas redes. A Internet perturbou profundamente o mercado de provedores de BBS. Provedores de Internet forneciam fundamentalmente a mesma coisa com alcance mundial. Dentro do “pacote de serviços” de um provedor de Internet desse período, cinco são importantes na nossa discussão. Quatro supriam os usos clássicos de uma BBS: arquivos, correio, mensagens e quadros de avisos. O quinto era aquilo se chamava então World Wide Web. O fato importante para a nossa história é que neste tempo o pacote de serviços de um provedor de Internet típico incluia não apenas “leitura” mas também “escrita” nesses grupos de serviços. Em particular, o usuário recebia uma alocação de armazenagem para seus arquivos e, dentro dessa armazenagem, havia uma área específica para arquivos que seriam disponibilizados via web.
Este ponto é crucial: neste tempo, todo pacote de serviços de acesso a Internet incluía os recursos de infraestrutura fundamentais para o usuário participar, publicar e criar dentro de diversas modalidades de comunicação. Não apenas correio: compartilhar arquivos, criar salas de conversa e grupos de aviso ou discussão, e publicar sites na web. Neste último caso, do ponto de vista de 2021, o serviço era mínimo: literalmente, servir arquivos via web. O problema de produzir esses arquivos era integralmente seu. Não que isso fosse particularmente desafiador: a tecnologia original da web foi desenhada para uma espécie de “enciclopédia viva” com textos e imagens e hyperlinks para viabilizar o aprofundamento via “navegação” de tópico em tópico. Criar um web site usando um editor de texto comum exigia naquela época exigia pouca expertise. Quando eventualmente editores especialistas surgiram para ajudar, os teimosos exibiam com orgulho um ícone de “made in notepad”. Acredito eu que, dentro da população de usuários da Internet neste período uma fração significativa, uma porcentagem seguramente de dois dígitos mantinha um web site pessoal.
Neste período inicial, ainda por ali na primeira metade da década de 90, o conceito moderno de “busca” não existia. A web era primariamente descoberta saltando de hyperlink em hyperlink a partir de uma “home page”. Nós descobriamos “home pages” em revistas, pelo boca a boca de amigos, pelos canais e grupos de conversa. Nós críavamos “home pages” pessoais, com nossos “perfis” e nosso “web log”, e incluíamos nossas listas de links favoritos ou recomendados. Federações de web sites firmavam compromisso de links mútuos e a técnica de “web rings” permitia que os visitantes atravessassem confortavelmente toda uma federação de web sites através de uma lógica intuitiva de “anterior” e “próximo”. Um bom web ring promoveria horas e horas de leitura. Isso é o que se fazia na web deste período, leitura.
Era perfeitamente possível usar a web com uma boa lista de bookmarks, sim, mas, o crescimento da web em todas as métricas, na quantidade de usuários, na quantidade de web sites, impulsionou diversas inovações. Eu tomo a virada da década de 90 para a década de 00 como um marco artificial para a introdução dessas inovações, mas, claro que apenas uma ilusão conveniente para a minha discussão. O ponto é que a quantidade realmente cresceu muito. Uma quantidade cada vez maior de atores sociais — governo, bancos, lojas — entrou no barco interessada em alcançar uma quantidade cada vez maior de pessoas, e uma quantidade cada vez maior de pessoas entrou no barco. O problema da descoberta de web sites gerou primeiro a solução estilo “listas amarelas”, como o Cadê e o Yahoo, que eventualmente desenvolveu-se na solução estilo “mecanismo de busca”, como o Altavista. O aperfeiçoamento dos mecanismos de busca nos trouxe até a situação atual em que o Google é a super home page que supostamente leva a todos os lugares; ninguém usa bookmarks.
Uma quantidade cada vez maior de web sites tornou a web difícil de acompanhar. Para se manter atualizado dentro de uma comunidade com web ring, seria necessário tomar um tempo para sentar na frente do computador e seguir todos os links sistematicamente um a um. Certas demandas tentou-se satisfazer com o conceito de “portais”, os primeiros agregadores. Até hoje nós temos portais criados nesse tempo, como o Universo Online. Enquanto talvez fizesse sentido para certos web rings serem reunidos em portais temáticos, eu não acho que isso teria feito sentido para as comunidades de web logs. Acompanhar web logs nessa época exigia visitar um a um para saber se havia atualização. A prática de atualização frequente nasceu neste período para evitar o desânimo de visitar várias vezes um web site e nunca encontrar uma novidade. Um web log pouco atualizado era difícil de distinguir de um web log abandonado. Entre todos os tipos de web site com esta natureza comum, a de periodicamente publicar alguma nova peça ou artigo, a ideia de descobrir atualizações e a ideia de agregar as publicações incitou o surgimento do conceito de “news feed”. Web sites forneceriam entre os seus arquivos típicos um arquivo especial em formato de “news feed” contendo informação preparada para o consumo por “news reader” ou “leitor de feed”, ferramentas capazes de automatizar a consulta e a notificação de novidades. Portais automatizariam a geração das suas home pages consumindo “news feeds” gerados por agências de notícias. A tecnologia de “news feed” desenvolvida neste período é usada hoje por podcast players para descobrir novos episódios.
Com a chegada de cada vez mais pessoas cada vez menos investidas no tecniquês da Internet, também mais pessoas começaram a investigar maneiras de tornar a criação na web mais acessível. O surgimento de padrões na criação de web sites, como os perfis e os web logs, certamente auxiliou nesse processo. Assim, diversos web sites especiais surgiram oferecendo a capacidade de produzir perfis, bookmarks, web logs etc. sem a necessidade de escrever HTML. Estes web sites habilitavam a participação de leigos e portanto criaram condições de crescimento ainda mais acelerado para a Web, alimentando toda essa situação. Dessas ferramentas, muitas permanecem disponíveis, entre elas o lendário Blogger.
As noções que se formaram nessa época, aproximadamente vinte anos atrás, no próximo período foram mixadas e remixadas em formatos híbridos diretamente antecessores da realidade atual. Quando o Twitter surgiu, era chamado de “plataforma de microblogging”. Napster ensinou ao mundo o potencial do “peer to peer”. Pioneiros como Friendster facilitaram a criação de perfis pessoais com links para os perfis dos amigos. Para além dos perfis, links e blogs, serviços como Flicker permitiam montar galerias de imagens. Os diversos serviços típicos da Internet cada vez mais deixavam suas ferramentas de origem e migravam para web, email, grupos, chat, fórum. Investimento na web melhorou suas condições de representar web sites cada vez mais interessantes, culiminando eventualmente na Web 2.0 e na ideia de “web app”. Assim como se percebe hoje que as redes sociais engoliram a web, naquele tempo se percebeu que a web havia engolido a Internet.
Quando nós chegamos por volta de 2010, uma quantidade de técnicas foi ou está sendo desenvolvida para resolver os problemas de escala da web: como descobrir web sites em meio a infinitos web sites, como se manter atualizado com incontáveis fontes de artigos, como viabilizar para o público leigo participar da web com perfis, com links, com blogs etc. Google correu muito rápido na frente das buscas e aposentou os bookmarks. Os avanços na tecnologia básica da web permitiram meta web sites geradores de web sites cada vez mais avançados. O que hoje se percebe como precursores das redes sociais, vistos do passado pra cá, se parecem mais com sofisticadas ferramentas de geração de web sites dentro de variados perfis: mais ênfase no perfil pessoal, mais ênfase nos links interpessoais, mais ênfase no blog, em imagens etc. LinkedIn, que hoje se entende como uma rede social, começou como uma ferramenta de geração de curriculum vitae digital. Facebook, hoje um dos gigantes da área, começou como gerador de perfil ao estilo “face book” para escolas secundárias e universidades. (Eu tenho meu “face book” do Colégio Santo Agostinho aqui em algum lugar.) Twitter, como visto, até hoje representa bem o papel de ferramenta de microblogging. Das coisas excitantes do período, o que não pegou de jeito nenhum foram os feeds.
Os dois problemas motivadores dos feeds não diminuiram, só aumentaram. Portais e agregadores tinham condições de negociar business to business as estruturas de dados trocadas com as agências de notícias, de modo obter a automação necessária; esse problema foi e está solucionado. Mas o público da web e seu problema de acompanhar o conteúdo das suas incontáveis fontes de interesse não foi solucionado. Os impedimentos para essa solução não foram vencidos nos arredores de 2010: o resultado visual dos news readers, em virtude da heterogeneidade dos dados de origem, era horrível; os web sites desejavam que os usuários fossem para lá, ao invés de serem meros fornecedores de insumo para as ferramentas dos outros. Agoram mesmo, em 2021, temos mega processo contra o Google correndo na Europa em virtude do Google News, que é fundamentalmente um agregador ao estilo de news reader cuja fonte são os jornais e demais veículos de notícias locais. A natureza do processo é justamente a empresa Google estar lucrando a partir do consumo do material gerado por estes jornais e veículos.
Dito isso, em retrospectiva, já nos arredores de 2010 podemos começar a enxergar tentativas realistas de resolver esse problema, cujo efeito culminou na nossa situação. Reavaliando o problema dos “news feeds” nós temos os efeitos da heterogeneidade e do diagmos que “cíumes”. Em circunstâncias em que esses dois fatores não apareciam, nós encontramos exatamente o resultado desejado dos “news feeds”, mesmo sem que isso esteja explícito. Ferramentas de blog, como Blogger e LiveJournal, permitiram ao usuário “assinar” o blog dos amigos, receber alertas de novos artigos, e exibiriam paíneis com sumários ao estilo que se esperava de um “news reader”. Twitter exibe essa característica logo de cara: a tela principal do Twitter é um “news feed” dos usuários que você “segue”. De um modo geral, parece que a solução descoberta entre 2010 e 2015 é a de que os “news feed” são absolutamente excelentes quando são normalizados dentro de uma plataforma. O Twitter, com os horrorosos web browsers de 2006, não tinha dificuldade nenhuma de diagramar um feed de tweets: o formato de um tweet é rigorosamente controlado. Entre as ferramentas de blog, o problema da correta diagramação do artigo não existe dentro da própria ferramenta. Além disso, ferramentas que naquele momento não incluiam o conceito de blog já começaram livres do problema: a notificação de eventos de alteração de perfil, criação de links de amizade, ou o fato de que se postou uma nova foto, são fáceis de diagramar dentro da plataforma. Este conceito de plataforma tem a virtude de viabilizar a diagramação de informação garantidamente estruturada pela própria plataforma.
Quando o Twitter começou, a limitação de caracteres foi Considerada Por Muitos(tm) como um insulto: décadas de blogging para de repente alguém decidir que 128 caracteres são suficientes? Mas o Twitter mostrou que 128 caracteres eram suficientes. Eu acho que esta descoberta revelou a todos os players que poderiam muito bem embutir um aspecto de blog em suas respectivas plataformas. Não era necessário se transformar em uma ferramenta de edição e diagramação de texto: era preciso apenas enfiar algum tipo de clone do Twitter ali dentro. O conceito de post se reduziu para um pequeno parágrafo. Mesmo uma ferramenta de fotos poderia se permitir agregar mais do que apenas um título, poderia agregar também um pequeno parágrafo. Orkut não exatamente embarcou nessa, mas, as pessoas abusaram dos “testimonials” pra trocar ideia como se fosse um quadro de avisos. Facebook não cometeu esse erro e rapidamente incorporou um “news reader” e depois os posts. Foi o Facebook que introduziu a ideia de uma “timeline” para representar um “news reader” cujo “news feed” fornecia mais do que artigos, fornecia eventos de vida, como a formação de links de amizade dentro da plataforma, formatura na universidade etc. Hoje o termo timeline representa a mais refinada forma dessa antiga ideia.
Neste ponto da história, um incômodo já estava presente em muitas pessoas, por virtude do enorme e justificado crescimento dessas plataformas. A facilidade que essas plataformas permitiam que as pessoas participassem estava engolindo a web, da mesma forma como a facilidade com que a web permitia que as pessoas participassem engoliu a Internet. Em dez anos, ninguém mais lembrava da época em que todo provedor de acesso fornecia aqueles serviços todos, inclusive hospedagem web. (Isso morreu na transição dos pequenos ISPs para as grandes telecom.) Mesmo que o provedor fornecesse hoje, ninguém usaria: o custo para se construir um web site é alto demais enquanto que o custo para produzir perfis, relações e posts nas plataformas é praticamente zero. Apesar do saudosismo, o fator econômico foi em 2010-2015 e ainda é dominante até hoje. É muito mais caro em dinheiro, tempo e energia manter um web site à moda antiga do que usar uma plataforma moderna.
MAS nada disse fez com que a quantidade de informação diminuísse; apenas tornou viável a existência dos news feeds na sua nova encarnação de timeline. A crescente quantidade de posts e outros tipos de notificação se tornou um problema real. Os negócios e outros atores de mercado dentro da plataforma ansiando por sua atenção começaram a calcular com precisão o momento certo de introduzir um post na plataforma para maximizar a chance de ele aparecer no seu feed/timeline no exato momento em que os seus olhos estavam lá. Porque até esse momento, a construção de um feed/timeline obedecia a um algoritmo básico: a ordem cronológica. Para uma quantidade de informação razoável, é natural ler as coisas em ordem cronológica, do mais antigo para o mais novo. Porém, uma quantidade irrazoável de informação significa que a ordem cronológica fará a informação mais antiga “transbordar”. Por isso justamente o cálculo preciso do momento do post: se for cedo demais ou tarde demais, vai “transbordar”, não vai aparecer no tempo certo em que a pessoa está lendo. Google já havia provado que algoritmos sofisticados eram viáveis e benéficos para a curadoria de conteúdo. E assim, ali pela metade dos anos 2010, diversas plataformas, notavelmente o Facebook, aplicaram algoritmos não cronológicos para gerar as timelines dos seus usuários, com a promessa de obter uma verdadeira curadoria de conteúdo.
Nós todos sabemos como as forças de mercado interferiram nisto e na coisa maligna que os tais algoritmos se desenvolveram. O importante pra mim é observar que, antes de mais nada, sempre houveram algoritmos, porque sempre houve um monte de informação para se colocar em “fila”, em “timeline”. O algoritmo simples por ordem cronológica é adequado para certas quantidades de informação, mas, observadamente, na presença de uma quantidade grande demais de informação, o “transbordo” leva ao desprivilégio de informação relevante e treina as pessoas a perseguir metas irrelevantes como publicar em horários mágicos. Existe um problema de curadoria de conteúdo na presença de uma quantidade muito grande notificações. O Twitter costumava permitir que seus usuários alterassem o algoritmo de volta para o cronológico.
Todas essas máquinas e aparelhos eventualmente foram transmutadas para atender a função primária do capital, que é multiplicar a si mesmo. Sabemos que os algoritmos de curadoria das grandes plataformas são orientados a fixar a presença da atenção das pessoas para gerar “engajamento” com seu “conteúdo”, que por sua vez se transforma em objeto de comércio para agências de marketing. Esta é a forma mais recente das métricas de atenção que iniciaram na web com a noção da “visita”, até hoje elemento dos “analytics” de web sites. Seu papel como máquina de marketing domina as redes sociais de um tal maneira que todas as pessoas, não importa qual seja o ambiente da sua atuação, se descobrem seduzidas pelas métricas da “visita” e do “engajamento”.
Os três pilares da minha vida são a ciência da computação, o iluminismo científico e o kung fu. Existe uma interseção entre a ciência da computação e a minha fonte de renda, sim, mas, fora isso, esses são os três ambientes da minha expressão como ser humano. Refletindo sobre as métricas do marketing social, já me perguntei várias vezes se minha rejeição não seria hipocrisia, já que eu sinto, sim, o desejo de ser lido, e vejo, sim, os numerozinhos de acesso que as ferramentas me mostram. Mas após reflexão suficiente a minha descoberta é de que essa é uma autocrítica inútil porque não se trata de algum tipo bizarro de esvaziamento da humanidade em que se escrever artigos de blog para ninguém ler. É claro que nós queremos ser lidos, e queremos que as pessoas gostem do que nós escrevemos, e que mostrem pra outras pessoas, e que nós alcancemos a máxima extensão que possamos alcançar.
A questão é de qual que é a diretriz. As redes sociais não oferecem máquinas de maximização de engajamento para satisfazer o anseio humano por se expressar, elas oferecem isso para prover o marketing dos meios necessárias para convencer pessoas a comprar. A própria ideia de engajamento no contexto das redes sociais nada tem a ver com o engajamento entre seres humanos em relações duradouras, o engajamento das redes sociais é a fixação da atenção suficiente para gerar vendas, para expor a pessoa a propagandas, a “product placement”, a #publi.
A máquina social permanece, como antes, uma máquina de facilitação da criação na web: reclamar do algoritmo não diminui o fato de existir na plataforma ter custo zero para o participante, em dinheiro cru e em investimento de aprendizado. Mas nós estamos em 2021 e a situação mudou. Hoje, existem muito mais ferramentas de vários níveis de dificuldade para a criação de todo tipo de web site. Além disso, nenhuma plataforma foi capaz de se tornar uma ilha isolada, porque a força original de interconexão da Internet e da web é grande demais; para poder lidar com o fato de os usuários viverem colando links de uma plataforma na outra, certos protocolos de estruturação de dados foram desenvolvidos, que permitem o efeito que nós estamos acostumados: ao colar o link da plataforma na outra, o link se transforma em uma caixa familiar com a imagem, o título e as primeiras palavras do conteúdo.
Justamente esse protocolo significa que o problema original de feiúra do news reader hoje está drasticamente reduzido: a mesma técnica usada pelas plataformas para renderizar o conteúdo de uma na outra, um news reader pode usar para renderizar o conteúdo de um feed privado. Hoje, ferrametnas como Feedly e Inoreader são capazes de criar “timelines” privadas bastante agradáveis com base exatamente nesse recurso. Essas duas que eu citei, se não me engano, por uma taxa mensal, são capazes inclusive de consumir timelines de plataformas. Eu acredito que, sobre esse assunto, o problema que resta é lidar com os “comentários”.
Apesar de engolidos pelo Google Search, browsers como Google Chrome ainda são capazes de guardar bookmarks. Mais do que isso, browsers modernos tem capacidades de sincronização com a nuvem, de modo a guardar backups desses bookmarks. Eu mantenho certos grupos de abas em bookmarks dentro de um mesma pasta para, posteriormente, usar o comando “abrir tudo” para regerar essas abas.
As ferramentas de conversa “instantânea” como Whatsapp e Telegram não atendem requisitos básicos de anonimato e interoperabilidade. Este é um problema difícil porque acrescentar uma nova ferramenta pode melhorar o aninimato mas certamente não vai promover interoperabilidade. Mesmo assim, caso a construção de interoperabilidade futura em vistas a algum tipo de sonho de federação seja muito importante, o fato é que as tecnologias ao redor do XMPP existem a vinte anos e foram desenhadas exatamente para esse tipo de aplicação. (O mesmo vale para o OpenSocial que seria algum tipo de protocolo aberto de redes sociais. Não faço ideia do que aconteceu com o OpenSocial.)
Mesmo que fosse necessário retornar ao modo mais bruto de participação na web através da feitura de um web site direto no HTML, hoje os custos para manter um web site no ar estão muito diferentes. O advento da nuvem tornou os recursos de infraestrutura uma espécie de commodity. Fornecedores como o Google mantém um “free tier” que garante serviço gratis para aplicações de baixo consumo. Eu mantenho dois web sites de organizações sem fins lucrativos no Google Cloud a custo zero usando somente o “free tier”.
Enfim, são quatro da manhã e eu estou começando a ficar esgotado. Minha última colocação é sobre a necessidade de um nível mais elevado de anonimato para as formas mais complicadas de ativismo. Para isso, a solução é o Tor.
Agradeço muito a quem leu até o final. Espero que além de cansativa essa enxurrada de lembranças tenha sido inspiradora. A Web permanece capaz de tudo aquilo que ela era capaz no início. Minha questão é o quê queremos fazer e por quê não estamos fazendo.


Deixe um comentário