Luma está levantando US $ 4,3 milhões para tornar os modelos 3D tão fáceis quanto navegar com um telefone – TechCrunch

Qualquer um de nós que segue esse campo há algum tempo já viu startups tentando criar renderizações 3D usando câmeras de consumo e fotogrametria rudimentar. Alerta de spoiler: nunca pareceu particularmente bom ̵

“O que é diferente agora, e por que estamos fazendo isso agora, é por causa do surgimento dessas idéias de renderização neural. O que aconteceu antes e o que as pessoas fazem com a fotogrametria é que você tira algumas fotos e depois faz um longo processamento, obtém nuvens de pontos e, em seguida, tente reconstruir 3D a partir deles. No final, você obtém uma malha – mas para obter uma imagem 3D de boa qualidade, você precisa ser capaz de criar malhas de alta qualidade a partir de dados ruidosos do mundo real. Esse problema ainda é fundamentalmente problema não resolvido hoje”, explica Amit Jain, fundador da Luma AI, e se refere à “renderização inversa” como é conhecida na indústria.A empresa decidiu abordar a questão de um ângulo diferente.

“Decidimos assumir que não poderíamos obter uma malha exata de uma nuvem de pontos e, em vez disso, adotamos uma abordagem diferente. Quando você tem dados perfeitos sobre a forma de um objeto – ou seja, quando você tem a equação de renderização – você pode fazer renderização baseada em física (PBR). O problema, no entanto, é que não temos dados suficientes para fazer esse tipo de renderização, pois estamos começando com fotografias. Então, encontramos uma nova maneira de fazer as coisas. Tiramos 30 fotos de um carro e mostrou 20 deles para a rede neural”, explica Jain. As últimas 10 fotos são usadas como uma “soma de verificação” – ou como resposta à equação. Se a rede neural puder usar as 20 imagens originais para prever como seriam as últimas 10 imagens, então o algoritmo fez uma representação 3D muito boa do objeto que você está tentando capturar.

É tudo uma coisa de fotografia muito nerd, mas tem alguns usos bastante profundos no mundo real. Se a empresa conseguir, a maneira como você navega por produtos físicos nas lojas de comércio eletrônico nunca mais será a mesma. Além de girar em seu próprio eixo, as fotos de produtos podem conter zooms e movimentos virtuais de todos os ângulos, inclusive ângulos que não foram fotografados.

“Todo mundo quer mostrar seus produtos em 3D, mas o problema é que é preciso envolver artistas 3D para personalizar os objetos que você está digitalizando. Isso aumenta muito o custo”, diz Jain, que defende que as renderizações em 3D só estarão disponíveis para altas -fim de produtos premium. A tecnologia da Luma promete mudar isso e reduzir o custo de captura e exibição de ativos 3D para dezenas de dólares por produto, em vez de centenas ou milhares de dólares por renderização 3D.

A empresa planeja desenvolver um player incorporável semelhante ao YouTube para seus produtos, para facilitar aos varejistas a incorporação de imagens tridimensionais nas páginas dos produtos.

Matrix Partners, South Park Commons, Amplify Partners, Andreas Klinger da RFC, Context Ventures e uma série de investidores anjo acreditam na visão e apoiaram a empresa com US$ 4,3 milhões. A Matrix Partners abriu o caminho.

“Qualquer um que não viva debaixo de uma rocha sabe que o próximo grande paradigma de computação é suportado pelo 3D”, disse Antonio Rodriguez, sócio geral da Matrix, “mas poucas pessoas fora de Luma entendem que os métodos de trabalho intensivo e sob medida de colonizar o futuro Ambientes 3D não serão dimensionados. Deve ser tão fácil transferir minhas coisas em 3D quanto tirar uma foto e clicar em enviar!

A empresa compartilhou um vídeo conosco para nos mostrar o que sua tecnologia pode fazer:

Leave a Reply

Your email address will not be published. Required fields are marked *