Geleia de Menta

Blog/newsletter sobre tecnologia com perspectiva humana

Quanto maior... maior apenas

Última atualização em:

Algo que já apontei outras vezes em textos da newsletter é como as redes neurais e os algoritmos inteligentes de form geral estão se tornando cada vez maiores ainda que isso não impacte significativamente no seu resultado. Pretendo falar melhor disso e sua relação com o consumo de energia no próximo mês, mas por enquanto vamos apenas nos questionar a real necessidade de tantos parâmetros e porque redes com tão pesadas e pouco efetivas em relação a versões com menos parâmetros recebem tanta atenção.

Não posso descartar a visão americanizada sobre ser maior e melhor, associando essas coisas completamente diferentes muitas vezes como sinônimos, o jogo publicitário usa muito estes aspectos completamente irracionais de sentimentos e sensações que simplesmente se aprende a ter ao longo da vida porque está sendo repetido a tantas gerações que nem mais envolve a razão, já se incorporou à cultura e a cultura à traços de personalidade. O que poderia ser o caso de uma pessoa que viveu a vida toda em meio a sambistas, que a família desde sempre organizava rodas de samba no fim de semana, o estranho seria uma pessoa que tem sua vida desde a infância tão associada ao samba, não gostar de samba.

Mesmo assim, por mais esse orgulho de fazer algo com 540 bilhões de parâmetros seja algo dito com certo orgulho, nem que esse algo seja completamente inviável para uma aplicação real, há algo que devo reconhecer como benéfico: o incentivo ao desenvolvimento da computação de alto desempenho. Isso repercurte de muitas formas na nossa relação com os produtos da tecnologia, eu diria até que grande parte do contato direto que temos hoje com algoritmos inteligentes (desbloquear o celular com a digital, reconhecimento de face ao fotografar, sugestões no teclado do celular) vem justamente do progresso em pesquisas ligadas a capacidade e velocidade de processamento, desde o hardware até as linguagens de programação.

Justificando dessa forma, acho que já deu para perceber a ambiguidade da coisa. Em todo o caso sinto como se os títulos e anúncios apontassem para o lugar errado, a quantidade de parâmetros e a enormidade da rede neural não importa, mas a tecnologia desenvolvida que permite a viabilidade do que antes era impossível de se usar em condições reais, e isso não está nas redes neurais, mas nas partes mais profundas das frameworks, dos compiladores/interpretadores nas linguagens de programação, na CPU e na GPU. Estes últimos ainda contém uma particularidade, o uso de aprendizado de máquina, que como já expliquei antes, nada mais é do que uma busca heurística que se vale de simulações e testes (o último link é sobre isso).