Startseite » wie man » Was ist der visuelle Kern von Pixel 2?

    Was ist der visuelle Kern von Pixel 2?

    Das Google Pixel 2 verfügt über eine der besten Kameras, die Sie derzeit in einem Smartphone erhalten können. Im Allgemeinen beziehen sich diese Bewertungen der „besten Kamera“ jedoch nur auf die Standard-Kamera-App. Google ändert dies dank des „Pixel Visual Core“ - eines benutzerdefinierten Bildverarbeitungschips. Aber was macht dieser Chip??

    Lassen Sie uns zuerst über HDR sprechen

    Um zu verstehen, warum der Visual Core so wichtig ist, müssen Sie sich mit der High Dynamic Range-Fotografie (kurz HDR) vertraut machen. Grundsätzlich hilft HDR, die Beleuchtung eines Fotos auszugleichen und es natürlicher erscheinen zu lassen. Dunkel ist nicht zu dunkel und Licht ist nicht zu hell.

    Dies ist vor allem in einigen Situationen ein Problem: Wenn der Hintergrund hell und der Vordergrund dunkel ist, wie ein Familienfoto bei hellem Sonnenschein, oder in Situationen mit wenig Licht. HDR (oder wie Google es auf dem Telefon als "HDR +" bezeichnet) ist bereits seit dem Nexus 5 auf Google-Handys verfügbar, um dem entgegenzuwirken. Daher ist es seit einiger Zeit Teil der Google Camera.

    Dies ist wichtig zu beachten, da HDR zwar keine neue Funktion für Pixel 2 ist, seine Verfügbarkeit jedoch nicht mehr auf die integrierte Kamera-App beschränkt ist. Aus diesem Grund gibt es den Visual Core: Um App-Entwicklern von Drittanbietern die Möglichkeit zu geben, die Möglichkeiten von HDR in ihren Anwendungen einfach über die Android Camera API zu nutzen.

    Okay, was ist der visuelle Kern?

    Kurz gesagt, der Visual Core ist ein speziell entwickelter Prozessor, der ausschließlich in Pixel 2 und Pixel 2 XL enthalten ist. Es wurde von Google in Zusammenarbeit mit Intel entwickelt, um die Bildverarbeitungsarbeit in den Telefonen für andere Kameraanwendungen als die Standardanwendungen zu erledigen.

    Einfacher ausgedrückt: Drittanbieter-Apps wie Instagram und Facebook können die gleichen HDR-Funktionen nutzen, die bereits seit einigen Jahren in der integrierten Google Camera App verfügbar sind. Wenn ein App-Entwickler die Android Camera API verwendet, können diese Apps von Drittanbietern jetzt dieselbe Bildqualität wie die Standard-App erhalten. Es ist toll.

    Der Grund ist dies wichtig zu beachten jetzt Der Grund hierfür ist, dass der Pixel Visual Core deaktiviert wurde, da das gerade installierte Pixel 2-Google im Android 8.1-Update aktiviert wurde, das derzeit für Pixel 2-Geräte verfügbar ist. Wenn Sie es nicht auf Ihrem Gerät haben, machen Sie sich keine Sorgen. Alternativ können Sie es auch mit den Factory-Images oder ADB-Seitenlasten selbst flashen.

    Der Pixel Visual Core erhöht die Geschwindigkeit der HDR-Verarbeitung außerdem um bis zu fünfmal schneller als die Verwendung der Bildverarbeitung auf dem Pixel 2 Snapdragon 835-Prozessor. Gleichzeitig ist es auch effizienter, da nur ein Zehntel der normalen Energie des Standard-Bildprozessors verwendet wird. Es erweitert also nicht nur die Funktionalität, sondern auch effizienter und schneller.

    Und es geht sogar darüber hinaus - oder zumindest es werden. Während der Visual Core derzeit auf Kamera-Apps von Drittanbietern beschränkt ist, ist er ein programmierbarer Chip. Es gibt also nichts, was ihn von anderen Aufgaben abhält. Das ist natürlich beabsichtigt. Google wollte, dass dieser Chip zukunftssicher ist, damit er mit dem Android-Ökosystem wachsen kann. Nicht nur für Google, sondern allgemein für Android-Entwickler. Tatsächlich gibt Google an, dass bereits an den "nächsten Anwendungen" gearbeitet wird, die den Visual Core verwenden.

    Für den Moment ist dies jedoch ein Schritt in die richtige Richtung. Das Öffnen von HDR für Apps von Drittanbietern mit der bereits großartigen Kamera des Pixels ist rundum ein Gewinn. Wenn Sie nach guten Beispielen für den Visual Core bei der Arbeit suchen, hat Google in diesem Blogbeitrag einige hervorragende.