http://matthias-hielscher.de/blog/503/Unlimited_Detail_-_Die_Zukunft_der_Computergrafik.html
Apr
12

Unlimited Detail - Die Zukunft der Computergrafik?

Ich wurde soeben auf einen Artikel auf golem.de aufmerksam gemacht. Dort geht es um eine neue Technologie zur Berechnung der Grafik in Computerspielen.
Bisher bestand die Spielewelt aus vielen Polygonen, was keine echten Rundungen im Spiel ermöglicht. Mit zunehmender Anzahl der Polygone werden Kurven angenähert und das ist der aktuelle Trend, auch bei Grafikkartenherstellern: Möglichst viele Polygone sehr schnell zu berechnen.
Mit der neuen Technologie ist das nicht mehr der Fall. Das System muss man sich wie im echten Leben vorstellen: Alles besteht aus Atomen. Übertragen auf den Computer folglich aus einer sehr großen Wolke aus einzelnen Pixeln.

golem.de
Mit der Engine von Unlimited Detail sollen künftig die Objekte etwa in einem Spiel nicht aus mehr oder weniger vielen Polygonen, sondern aus unendlich vielen Punkten - die Entwickler sprechen von "Atomen" analog zur echten Welt - bestehen, die in einer sogenannten "Point Cloud Data" dargestellt werden können.

Ein höherer Detailreichtum ist laut Unlimited Detail nicht möglich. Ich persönlich bin gespannt, ob das tatsächlich so funktionieren wird.

Diese Technologie hat laut Unlimited Detail eine sehr gute Performance, da nur einzelne, sichtbare Pixel berechnet werden. Das Ganze soll ähnlich einer Suchmaschine funktionieren: Die sichtbaren 3D-Objekte werden gefunden und dargestellt, die anderen nicht.

Laut Unlimited Detail sind dazu nicht einmal Grafikkarten nötig und selbst auf Handys soll der Detailreichtum möglich sein.
Man muss sich das mal vorstellen: Theoretisch kann man beliebig nahe an die "Textur" heranzoomen und es werden immer feinere Details sichtbar. \:shock\:

Da die Daten an den Bildschirm gelangen müssen, sind Grafikkarten wohl erforderlich, nur müssen es keine High-End-Geräte sein, vermute ich.
Allerdings müssen wir uns noch ein gutes Jahr gedulden, bis erste Spiele erscheinen könnten.

golem.de:
Derzeit sucht das Unternehmen nach Investoren und arbeitet an einem Software Development Kit (SDK). Spiele und anderen Anwendungen, die auf der neuen Technologie basieren, sollen in rund 16 Monaten auf den Markt kommen können.

Schaut euch mal die oben verlinkten Videos an. Sie sind wirklich beeindruckend! \:\)

Weitere Fotos und Videos gibt's auf unlimiteddetailtechnology.com. Dort wird die Funktionsweise nochmals genauer erläutert.

Bleibe auf dem Laufenden!

Wenn du den RSS-Feed abonnierst, wirst du über neue Blogeinträge benachrichtigt.

Kommentare

  • Pierre
    12.04.2010, 15:48
  • "Ich wurde soeben auf einen Artikel auf golem.de aufmerksam gemacht."

    Ja ne is klar. Du meinst ich hab dir mal wieder ne Steilvorlage für nen Blogpost gemacht, was? \:D
  • Manu
    (registriert)
    12.04.2010, 22:32
  • Yiha, holt die 386er wieder aus dem Schrank \:D

    Erstaunlich ist das ganze schon, nur ob die auch wirklich Animationen, Schatten, Lichter etc. in Echtzeit damit darstellen können?
  • Matze
    (registriert)
    12.04.2010, 23:07
  • Sehr gute Frage. Ich vermute auch, dass einiges an Rechenpower nötig ist, um die sichtbaren Pixel zu ermitteln. Ganz zu schweigen von Schatten, Licht, Reflexionen, ...

    Wobei die Demo-Videos schon überzeugend sind.
  • Daniel
    13.04.2010, 21:48
  • Nunja, Videos sind Videos. Ich glaub das erst, wenn ich eine ausführbare Datei aufm Rechner hab, die kein vorberechnetes Video abspielt. Und, wie ich ja auch schon in der DelphiPRAXiS schrieb:
    Es kann ganz schnell passieren, dass solche Schmieden aufgekauft werden und diese Algos ganz schnell in der Schublade verschwinden. \;\)

    Mal sehen. Wenns aber wirklich mal kommt, dann.... Juhuuu. Und der GraKa-Industrie werden auch Argumente dafür einfallen, dass man eine Neue braucht. \;\)
  • Matze
    (registriert)
    14.04.2010, 16:56
  • Ja, ich bin auch gespannt. Noch kann ich mir nicht vorstellen, dass die Berechnungen der Pixel so flott gehen, dass die Grafikkarte nichts mehr rechnen muss.

    Aber wir werden sehen, was in 1 - 2 Jahren daraus geworden ist.

    Bis dahin hat 3D vielleicht auch Einzug gehalten und die Grafikkarten-Hersteller können sich darum kümmern. \;\)
  • freak4fun
    18.04.2010, 22:01
  • Naja, die GPUs sind halt speziell. Es gibt ja Firmen die mit den GPUs statt den CPUs rechnen, weil die bei bestimmten Operationen ja besser sind. Und ist ja auch schon cool was heut zutage alles geht. Dass wird noch richtig Spaßig! ^^

Einen Kommentar schreiben

 
 
  • : *
  • :
  • : *
* Pflichtfelder