Hugging Face's neue iOS-App nutzt KI, um zu beschreiben, was Sie sehen

Das KI-Startup Hugging Face hat eine neue App für iOS veröffentlicht, die nur eine Sache macht: offline und lokal KI nutzt, um zu beschreiben, was sich im Blickfeld der Kamera Ihres iPhones befindet.

Die App namens HuggingSnap verwendet Hugging Faces hauseigenes Vision-Modell, smolvlm2, um in Echtzeit zu analysieren, was Ihr Telefon sieht, ohne Daten in die Cloud zu senden. Zeigen Sie mit der Kamera auf etwas und stellen Sie eine Frage oder fordern Sie eine Beschreibung an, und HuggingSnap wird Objekte identifizieren, Szenen erklären, Text lesen und im Allgemeinen versuchen zu verstehen, was Sie sehen.

Bildnachweis: Hugging Face

Das Konzept ist sicherlich nicht neu. Viele KI-gesteuerte Apps - und Apples eigene Apple Intelligence-Suite mit KI-gesteuerten Funktionen - können dasselbe erreichen. Aber wie Hugging Face in der App Store-Beschreibung von HuggingSnap feststellt, funktioniert HuggingSnap offline, ist energieeffizient und verarbeitet alle Daten auf Ihrem Telefon.

„Es ist hilfreich beim Einkaufen, Reisen, Studieren oder einfach beim Erkunden Ihrer Umgebung“, schreibt das Unternehmen. „HuggingSnap bringt intelligente Vision-KI auf Ihr iPhone.“

HuggingSnap erfordert iOS 18 oder neuer. Es ist auch mit macOS-Geräten und der Apple Vision Pro kompatibel, falls Sie es lieber auf einem Laptop oder Headset verwenden möchten.