Byli pracownicy wytwórni filmowych DreamWorks oraz Lucasfilm założyli startup Loom.ai, którego celem jest stworzenie platformy umożliwiającej błyskawiczne tworzenie realistycznych animowanych awatarów na bazie zwykłego zdjęcia.

Awatary to temat prawie tak stary jak same komputery. Wraz z rozwojem nowej generacji gogli wirtualnej rzeczywistości, a co za tym idzie aplikacji społecznościowych VR zapotrzebowanie na wizualną reprezentację postaci gracza znacznie wzrosło, szczególnie jeżeli mówimy o ciągłym podwyższaniu poziomu immersji. A co gdybyśmy w VR-owym świecie wyglądali zupełnie tak jak w rzeczywistości?

Rozwiązanie zaprojektowane przez twórców Loom.ai jest połączeniem technologii rozpoznawania obrazów, samo-uczącej się sztucznej inteligencji (machine learning) oraz najnowocześniejszych efektów specjalnych wykorzystywanych przez branżę filmową. To właśnie w hollywoodzkich filmach i różnego rodzaju animacjach technika ta była dotychczas stosowana, jednak generowała znaczne koszty, nie do przejścia dla zwykłych zjadaczy chleba. Teraz ma się to zmienić.

Założycielem i szefem startupu jest Mahesh Ramasubramanian, były pracownik wytwórni DreamWorks, który pracował m.in. na takimi hitami jak Shrek czy Madagascar 3. Z kolei dyrektorem ds. technologii został Kiran Bhat. W jego CV znajdziemy chociażby dowodzenie działem rozwojowym Lucasfilm, gdzie opracowywał system sczytywania mimiki twarzy zastosowany w filmach The Avengers oraz Piraci z Karaibów. Uważa on, że kluczem do zbudowania wiarygodnych cyfrowych postaci jest wyodrębnienie percepcyjnych cech ludzkiej twarzy.

Bhat ma nadzieję, że zestaw algorytmów obliczeniowych zbudowany przez Loom.ai uprości proces budowania wiarygodnych awatarów 3D dla wszystkich zainteresowanych. Coś co kiedyś wymagało ogromnych nakładów finansowych, niedługo ma być dostępne dla każdego.

Na kanale Loom.ai możemy znaleźć kilka interesujących przykładów zastosowania technologii w praktyce. Zobaczcie chociażby na efekty, które udało im się osiągnąć wykorzystując zdjęcia sławnych ludzi. Każdy awatar powstał na postawie pojedynczego nieruchomego obrazu. Poznajecie?

  • Danax

    Kiedyś przyśniło mi się coś podobnego ale bardziej zaawansowanego – mój mózg ektrapolował zdjęcie 360* 3D z możliwością wejścia w nie i oglądania z każdej strony na podstawie jednego zdjęcia 2D. Wtedy dotarło do mnie, że to wszystko jest możliwe – zbudowanie i dowolne manipulowanie sceną 3D na podstawie zdjęcia 2D – o ile napiszemy algorytmy, które będą potrafiły rozpoznawać obiekty i dorabiać ich niewidoczne boki, tył, górę i dół dzięki bazie referencyjnej. Można by tak generować modele ludzi i większości przedmiotów.

    To samo potrafi przecież zdolny malarz lub grafik 3D, jeśli spędzi na robiecie dostatecznie dużo czasu. To samo potrafią nasze umysły natychmiastowo gdy śnimy. Komputery też można by tego nauczyć.

  • Bahus

    Wydaje mi się że technologia prędzej pójdzie w zdjęcia 3D. Ultradźwięki czy inne pasmo światła pozostawia jeszcze spore pole manewru.