A fala da Zeynep é ótima e merece um post completo em vez destes breves comentários aqui na sessão gotas, mas o tempo está corrido (como sempre!)

O primeiro ponto a destacar é que pode parecer que ela está pintando um cenário exagerado, mas não está. Pode assistir atentamente sem medo de estar mergulhando em uma paranoia: Inteligência Artificial e Machine Learning (aprendizado de máquina) são áreas complexas que pouca gente entende e menos ainda domina.

A afirmação que pode parecer mais paranoica é a de que ninguém sabe como o aprendizado de máquina chega a um determinado resultado, nem mesmo quem desenvolveu o código, mas isso está correto pois aprendizado de máquina basicamente (bem basicamente) cria inteligências artificiais capazes de transformar dados em matrizes gigantescas de onde ela pode extrair padrões e desenvolver conhecimento.

Mas não vamos entrar nesses detalhes agora.

Fixe apenas que realmente estamos criando máquinas que desenvolvem um tipo de raciocínio que não vemos acontecendo, não é programado. Esse conhecimento será útil para você no futuro próximo.

Partindo daí Zeynep observa que algumas das maiores aplicações desse tipo de inteligência artificial são em plataformas como Google e Facebook que disputam por nossos cliques em anúncios (e por nosso tempo na forma de atenção, ela não deu o devido destaque a isso).

Todas as considerações dela em torno disso são válidas e a formação de comissões preocupadas em estabelecer princípios que evitem IAs enviesadas não será suficiente, na minha opinião, mas é a solução apresentada no final do vídeo.

Essas comissões são necessárias, mas não suficientes.

E aqui consigo chegar ao ponto que considero central: Facebooks e Googles estão no topo de cadeia alimentar e não poderão ser impedidos de nos influenciar a dedicar o máximo do nosso tempo a eles e mergulhar em um viés ou outro enquanto caminhamos pelos labirintos dos anúncios modelados para nos seduzir. O grande perigo não são as bolhas sociais quando mantemos apenas amigos com o mesmo viés, o grande perigo é a bolha cognitiva construída por máquinas (algoritmos de filtro) para alimentar o nosso viés de confirmação.

A solução é outra, e não é citada no vídeo. Temos que mudar o alimento para que outros organismos possam prosperar.

O alimento dessas mega-corporações é o capital “material”, dinheiro atrelado a controles políticos e financeiros. O dinheiro é um tipo de construção mitológica como diz Youval em seu Sapiens (livro que me incomoda, mas que serve bem para ilustrar esse ponto, muito embora prefira o vídeo do Cold Fusion sobre quem controla o dinheiro).

Felizmente parte da mudança de paradigma involve um tipo de capital cognitivo, um capitalismo sem capital e isso pode (deve) criar uma nova zona de empoderamento: já ganhamos voz individual, novas formas de organização coletiva e agora, com blockchains e outros dispositivos, caminhamos para um tipo de economia distribuída que, espera-se, nos permitirá ter mais posse do nosso próprio tempo.