Zusätzliches Videomaterial

Deep-Learning: MIT-Software produziert Bilder der Zukunft

Foto von Sandra Spönemann

von Sandra Spönemann (@die_spoent_wohl)-

Eine künstliche Intelligenz sagt zukünftige Ereignisse voraus? Ganz so funktioniert das leider noch nicht, aber ein paar Sekunden prognostiziertes Videomaterial hat ein Projekt am Massachusetts Institute of Technology bereits hervorgebracht.

Auf Grundlage eines Fotos sind die Forscher dazu in der Lage, ein kurzes Video zu kreieren.

In unserer Vorstellungskraft ist es leicht sich vorzustellen wie eine Bewegung ausgeführt wird: Wir betrachten zum Beispiel das Foto eines Radfahrers und ahnen, dass er ein paar Sekunden später an eben jenem Baum vorbeigefahren ist, der am Rand des Bildes noch zu erkennen ist. Was eigentlich nur in unserem Kopf passiert, haben schlaue Köpfe des MIT nun mit Hilfe einer künstlichen Intelligenz in die Realität überführt. Auf Grundlage eines Fotos sind die Forscher dazu in der Lage, ein kurzes Video zu kreieren, dass die darauffolgenden Sekunden der vorliegenden Momentaufnahme visualisiert.

Weiterentwicklung revolutioniert Smart-Cars

Zum jetzigen Zeitpunkt befindet sich die Deep-Learning-Software zwar noch im "Rohzustand", aber sie könnte eines Tages den Straßenverkehr revolutionieren. Eingebaut in smarte Autos, die einen menschlichen Fahrer obsolet machen sollen, ließen sich sicherheitsrelevante Aktivitäten vorhersehen und Unfälle vermeiden. Bisher lassen sich allerdings nur 1,5 Sekunden lange Videos produzieren, in denen Objekte sowie Menschen größer dargestellt werden, als sie tatsächlich sind.

We capitalize on large amounts of unlabeled video in order to learn a model of scene dynamics for both video recognition tasks (e.g. action classification) and video generation tasks (e.g. future prediction).

MIT

Doch die Forscher sind optimistisch. Neben der Sicherheit im Straßenverkehr könnte die Technologie für vielfältige Zwecke eingesetzt werden, beispielsweise um Lücken in Videoüberwachungsmaterial zu füllen, Animationen zu Stillleben hinzuzufügen oder um große Videodateien zu komprimieren. Carl Vondrick, der an dem Projekt beteiligt ist, vergleicht die Größenordnung dieser Forschung, deren Ziel es ist, alle Frames einer Szene simultan, in Rekordgeschwindigkeit und so realitstisch wie möglich zu simulieren, mit der Entwicklung des Telefons.

Die wissenschaftliche Ausarbeitung des Projekts findet ihr unter diesem Link.

Sag uns deine Meinung!

Um einen Kommentar zu verfassen, melde Dich an oder registriere Dich jetzt auf Netz.de!

Das könnte dich auch interessieren!
Werbung
Ab ins Netz mit dir