Znam Siri, asystenta głosowego Apple, od prawie dwunastu lat, a mimo to wciąż nie mogę sobie przypomnieć ani jednej sensownej rozmowy, którą odbyliśmy. Z kolei ChatGPT i ja znamy się od pół roku, ale rozmawialiśmy o wszystkim, od sensu życia po planowanie romantycznej kolacji we dwoje, a nawet współpracowaliśmy przy projektach programistycznych i filmowych. To znaczy, mamy związek.
Ograniczenia Siri oznaczają, że nadal nie może prowadzić rozmowy ani angażować się w długotrwały projekt. Na dobre i na złe, Siri, którego używamy dzisiaj na naszych iPhone’ach, iPadach, MacBookach, Apple Watch i Apple TV, niewiele różni się od tego, które po raz pierwszy widzieliśmy w 2011 roku na iPhonie 4s.
Sześć lat temu pisałem o tym Pierwszy przeszczep mózgu Siri (Otwiera się w nowej karcie), w momencie, gdy Apple zaczęło używać uczenia maszynowego do szkolenia Siri i poprawy jego zdolności do odpowiadania na zapytania konwersacyjne. Wprowadzenie uczenia maszynowego, a wkrótce potem wbudowanej sieci neuronowej w postaci chipa Apple A11 Bionic w iPhonie 8, było punktem zwrotnym dla pierwszego cyfrowego asystenta na poziomie konsumenckim.
To programowanie i krzem pomogły Siri zrozumieć pytanie i jego kontekst, pozwalając wyjść poza rutynowe odpowiedzi do inteligentnych odpowiedzi na bardziej naturalne pytania.
Wczesna Siri nie była nią
Niemożność pełnej rozmowy z Siri nie wydaje się dużym problemem, chociaż widzieliśmy już film Ha I rozumiem, czego ostatecznie możemy oczekiwać od naszych chatbotów.
Jednak dopiero gdy ta odległa przyszłość została przeniesiona do teraźniejszości przez GPT-3 i ChatGPT OpenAI, niezdolność Siri została rzucona na główną ulgę.
Pomimo najlepszych starań Apple, Siri zwalniała w trybie uczenia się. Dzieje się tak prawdopodobnie dlatego, że Siri nadal opiera się głównie na uczeniu maszynowym, a nie na generatywnej sztucznej inteligencji. To różnica między nauką a kreatywnością.
Wszystkie chatboty oparte na sztucznej inteligencji i narzędzia graficzne, których używamy dzisiaj, tworzą coś zupełnie nowego na podstawie monitów, a wkrótce grafiki i obrazów. Nie odpowiadają botom, są botami konstrukcyjnymi.
Wątpię, żeby cokolwiek z tego zostało pominięte przez Apple. Pytanie brzmi, co Apple zamierza zrobić i co może z tym zrobić? Myślę, że nie będziemy musieli szukać dalej niż na kolejnej konferencji Worldwide Developers Conference (WWDC 2023). Wszyscy koncentrujemy się na potencjalnym zestawie słuchawkowym rzeczywistości mieszanej o wartości 3000 USD, który Apple może pochwalić się w czerwcu, ale największe zapowiedzi firmy z pewnością będą dotyczyć sztucznej inteligencji.
„Apple musi być pod niesamowitą presją teraz, gdy Google i Microsoft wprowadzają własne rozwiązania w zakresie języka naturalnego”, powiedział dyrektor generalny Moor Insights i analityk Cheif Patricka Moreheada (Otwiera się w nowej karcie) Powiedz mi przez Twitter DM.
Siri jest bardziej rozmowna
tak jak Zgłoszono na 9to5Mac, Apple może faktycznie – w końcu – zaktualizować swoje tworzenie języka dla Siri (Bobcat). Zauważ, że to nie to samo, co „generatywna sztuczna inteligencja”. Myślę, że oznacza to, że Siri będzie trochę lepsza w swobodnym przekomarzaniu się. Nie oczekuję też wiele więcej.
Niestety, własny duch Apple może uniemożliwić mu dogonienie GPT-4, nie mówiąc już o GPT-3. Obserwatorzy branży raczej nie spodziewają się momentu przełomu.
„Myślę, że to, co robią w sztucznej inteligencji, niekoniecznie będzie skokiem tak dużym, jak bardziej zorientowane etycznie i wyważone podejście do sztucznej inteligencji w Siri. Apple kocha, żyje i umiera zgodnie ze swoimi zobowiązaniami do prywatności i nie spodziewałbym się mniej w jaki sposób dostarcza Siri, która w większym stopniu opiera się na sztucznej inteligencji”, dyrektor wykonawczy ds. strategii kreatywnych i główny analityk Tim Bajarin (Otwiera się w nowej karcie) Napisał do mnie listem.
Prywatność przede wszystkim
Niezachwiane przestrzeganie przez Apple prywatności użytkowników może przeszkodzić w jej pracy, jeśli chodzi o prawdziwie generatywną sztuczną inteligencję. W przeciwieństwie do Google i Microsoft Bing, nie ma ogromnego magazynu danych, który opiera się na wyszukiwarce. Nie szkoli też swojej sztucznej inteligencji na ogromnym oceanie danych internetowych. Apple wykonuje uczenie maszynowe na urządzeniu. iPhone i Siri wiedzą to, co wiedzą o tobie na podstawie zawartości twojego telefonu, a nie tego, co Apple może wiedzieć o tobie i 1,5 miliarda użytkowników iPhone’a na całym świecie. Jasne, programiści mogą używać narzędzi ML firmy Apple do tworzenia nowych modeli sztucznej inteligencji i integrowania ich ze swoimi aplikacjami, ale nie mogą po prostu zbierać danych, aby dowiedzieć się więcej o tobie i pomóc Apple w dostarczaniu lepszej sztucznej inteligencji Siri.
Jak napisałem w 2016 r.: „Interesujące jest również rozważenie, w jaki sposób Apple może celowo wyłączyć swoje wysiłki związane z sztuczną inteligencją. Na przykład dane o twoich nawykach zakupowych w iTunes nie są udostępniane żadnym innym systemom i usługom Apple”.
Krajowe podejście Apple może utrudnić jego potencjalne wysiłki w zakresie sztucznej inteligencji. Jak powiedział mi Morehead: „Widzę większość akcji na urządzeniach iw chmurze. Apple jest silny na urządzeniach, ale słaby w chmurze i myślę, że właśnie tam firma będzie walczyć”.
Jak widzę, Apple ma wybór. Rezygnacja z odrobiny prywatności użytkowników, aby w końcu zmienić Siri w asystenta głosowego, którego zawsze chcieliśmy lub kontynuowanie kursu dzięki przyrostowym aktualizacjom AI, które ulepszają Siri, ale nie pozwalają jej konkurować z ChatGPT.
More Stories
Premiera PlayStation 5 Pro planowana jest za kilka tygodni
Kuo: Aktualizacja pamięci RAM do 12 GB w przyszłym roku będzie ograniczona do iPhone’a 17 Pro Max
Firma zajmująca się sztuczną inteligencją Midjourney zapowiada produkt sprzętowy w nowej formie