3 Minuty
Przez lata sztuczna inteligencja w telefonach maskowała swoją obecność. Użytkownik pytał, otrzymywał odpowiedź, lecz dane po drodze trafiały na oddalony serwer, gdzie były przetwarzane i zwracane z powrotem. Ten niejawny obieg zawsze był kompromisem. Teraz Google dąży do pełnego uniezależnienia — a Gemma 4 to najczytelniejszy prognostyk, że AI bezpośrednio na urządzeniu z Androidem staje się rzeczywistością.
Google DeepMind zaprezentowało Gemma 4 w ubiegłym tygodniu wraz z firmą Arm, mając jasno wyznaczony cel: umożliwić zaawansowane działanie AI bezpośrednio na smartfonach z Androidem opartym o architekturę Arm, bez konieczności korzystania z chmury. Wg Google nowa linia modeli jest nawet czterokrotnie szybsza niż wcześniejsze wersje i wykorzystuje do 60% mniej energii z baterii. Bardziej kompaktowe warianty, E2B oraz E4B, powstały z myślą o urządzeniach mobilnych i potrafią obsłużyć tekst, obrazy oraz dźwięk bez przesyłania danych przez internet.
Dlaczego Arm jest tu kluczowy
Cichym silnikiem tego postępu jest zestaw instrukcji SME2 od Arm, będący częścią nowszych chipów Armv9. W uproszczeniu znacznie przyspiesza on operacje macierzowe, na których opiera się współczesna AI. Arm podaje, że testy inżynieryjne wykazały średnio 5,5-krotne przyspieszenie przetwarzania danych przez użytkownika oraz nawet 1,6-krotnie szybsze generowanie odpowiedzi w modelu Gemma 4 E2B. Co ciekawe, programiści nie muszą przepisywać swoich aplikacji, by zacząć korzystać z tej przewagi. Oprogramowanie KleidiAI od Arm łączy się z bibliotekami czasowymi Google, przez co przyspieszenie jest odczuwalne praktycznie bez wysiłku ze strony deweloperów.
Tego typu niewidoczne usprawnienia mogą przekształcić AI działające na urządzeniach z technologicznych demonstracji w faktycznie przydatne, codzienne narzędzia. Szybciej, lżej, z minimalnym zapotrzebowaniem na połączenie internetowe — to właśnie te wartości od dawna przyświecały rozwojowi AI w telefonach.
Najlepszym przykładem jest aplikacja Envision, ułatwiająca dostęp osobom niedowidzącym i niewidomym. Dotąd zrozumienie obrazu sceny przez AI często wymagało połączenia z chmurą. Dzięki prototypowi aplikacji z wbudowaną Gemma 4, działającą lokalnie na procesorach Arm, użytkownik po wykonaniu zdjęcia natychmiast otrzymuje szczegółowy opis sceny — bez potrzeby łączenia z siecią. Dla tego typu rozwiązania obsługa offline to nie tylko dodatek. To podstawa działania.
Google przygotowuje też kolejny krok. Gemma 4 stanie się bazą dla Gemini Nano 4, nadchodzącego lokalnego modelu AI dla Androida. To oznacza, że deweloperzy pracujący na Gemma 4 będą mogli bez problemu przystosować swoje aplikacje do Gemini Nano 4, który pojawi się na flagowych urządzeniach jeszcze w tym roku. Gemini Nano już teraz obsługuje funkcje, takie jak inteligentne odpowiedzi czy podsumowania audio, a największe firmy producenckie, jak MediaTek, dynamicznie rozwijają swoje możliwości. Gemma 4 wzbogaca ekosystem o obsługę wielu typów danych oraz wbudowane funkcje „agentowe”.
Dla deweloperów dostęp już jest otwarty. Modele E2B i E4B można pobrać z Google AI Edge Gallery dla Androida i iOS na licencji Apache 2.0. Ma to ogromne znaczenie, bo wyścig o efektywną, prywatną i natychmiastową AI nie odbywa się już wyłącznie w chmurze. Przenosi się bezpośrednio do telefonu, który trzymasz w ręce.
Zostaw komentarz