Autocodificador variacional

De Wikinet
Ir para navegação Ir para pesquisar

Se você é um dos malucos que batem punheta para desenho feito por inteligência artificial gostam de gerar arte feita por inteligência artificial, principalmente a nova [1] modinha, que é usar text to image, deve ter notado que as imagens geradas por I.A. tem um aspecto bem diferente de fotografias e de imagens vetoriais. Ou, mais precisamente, estas picas parecem uma porra intermediária, como se fosse um SVG com esteroides, mas sem o detalhamento de um GIF ou JPEG:

O motivo disto é que estes programas nunca trabalham (tanto na fase de treinamento, quanto na fase de geração) com as picas originais, que tem muita informação que ninguém se importa, mas em uma porra chamada de espaço latente (em inglês: Latent Space). As rotinas que passam da pica original para o espaço latente, e fazem a transformação reversa, tem o nome pomposo de autocodificador variacional.

Lead paragraph que devia estar no começo do artigo mas a gente bota depois porque fodam-se as regras[editar]

Autocodificador variacional, nome usado pelos tradutores brasileiros para o que, em inglês, se chama Variational autoencoder, que usa o acrônimo VAE, é uma rede neural treinada pelo método de Deep Learning, que transforma uma imagem original grande, em formatos de pixmap, para uma representação compactada desta imagem, em uma porra chamada de Latent Space, e é um dos passos fundamentais para que programas como o Stable Diffusion possam funcionar, porque, se não fosse pela compressão, o Stable Diffusion consumiria mais de 8000 vezes os recursos que são precisos para fazer as merdas que ele faz.[2][3]

Como a Panelopédia judaica explica o VAE.

O que esta porra faz[editar]

O VAE pega uma pica de 512x512 pixels, com 3 (ou 4) cores de 8 bits, e transforma em uma pica de 64x64 pixels, com 4 cores de 32 bits. A conta que é feita para codificar e decodificar é criada através do treinamento, usando uma base de dados de imagens, ou seja, quando se usa o VAE deve-se lembrar que, se a base de dados for muito diferente do que se deseja comprimir, o resultado da descompressão será uma merda.[4]

Um maluco [5][6][7] comparou a compressão/decompressão do VAE com o JPEG e o WEBP, e descobriu que, mesmo usando a compressão mais filha da puta dos outros métodos, ainda assim o VAE consegue comprimir mais. Obviamente, como esta porra é lossy pra caralho, tem uma penalidade a pagar: de modo geral, o VAE caga os textos escritos, e objetos no fundo da imagem ficam muito borrados. Tá, a gente não vai replicar aqui as picas do maluco,[8] mas pode ir na fonte consultar.[4]

Salsa

  1. Maio de 2023
  2. Adaptação livre das merdas que estão na ((Wikipédia em inglês)): Variational autoencoderWikipedia's W.svg.
  3. E juro que, de agora em diante, as fontes serão fiáveis, e não as merdas que tem na Panelopédia judaica.
  4. 4,0 4,1 Towards AI, Matthias Bühlmann, Stable Diffusion Based Image Compression https://pub.towardsai.net/stable-diffusion-based-image-compresssion-6f1f0a399202
  5. Matthias Bühlmann é engenheiro de software, empreendedor, inventor e filósofo. Ninguém pode ser isto tudo e continuar mentalmente são.
  6. Ars Technica, Benj Edwards, Better than JPEG? Researcher (Nota do Editor: Matthias Bühlmann) discovers that Stable Diffusion can compress images https://arstechnica.com/information-technology/2022/09/better-than-jpeg-researcher-discovers-that-stable-diffusion-can-compress-images/
  7. The Decoder, Matthias Bastian, Stable Diffusion beats JPG and WebP in image compression https://the-decoder.com/stable-diffusion-beats-jpg-and-webp-in-image-compression/
  8. Porque não tem mulher pelada, e The Internet is for Porn.
Under-construction.jpg
ATENÇÃO: ARTIGO EM OBRA
Esta predefinição foi inserida nesta página pois o autor deste artigo engana a si mesmo achando que um dia vai finalizá-lo.
Se já faz muito tempo que esta predefinição foi inserida e não houve novas edições, você já sabe que o autor nunca mais retornará aqui, então considere terminar essa merda.