Dzisiaj chciałbym podzielić się z Wami najnowszymi informacjami na temat decyzji firmy Apple, która zakazała swoim pracownikom używania narzędzi opartych na sztucznej inteligencji, takich jak ChatGPT i Copilot GitHub. Ta decyzja jest związana z obawami Apple dotyczącymi prywatności i bezpieczeństwa danych swoich pracowników.
ChatGPT, narzędzie opracowane przez OpenAI, które korzysta z zaawansowanej sztucznej inteligencji, zostało wydane niedawno na iPhone’a. Jednak Apple podjęło decyzję o zakazie korzystania z tego narzędzia w miejscu pracy już po kilku godzinach jego oficjalnego wydania. Firma obawia się, że platformy oparte na sztucznej inteligencji, takie jak ChatGPT, mogą zbierać poufne informacje od pracowników.
Apple nie jest jedyną firmą, która podjęła takie kroki. Inne znane przedsiębiorstwa, takie jak JPMorgan Chase i Verizon, również wprowadziły ograniczenia w korzystaniu z narzędzi opartych na sztucznej inteligencji przez swoich pracowników. Nawet Amazon poprosił swoich inżynierów, aby polegali na wewnętrznych narzędziach AI zamiast korzystać z narzędzi opracowanych przez inne firmy.
Nieoficjalne raporty wskazują, że Apple obecnie pracuje nad własnym modelem sztucznej inteligencji, który mógłby być wykorzystany w ulepszeniu asystenta głosowego Siri. John Giannandrea, który dołączył do zespołu Apple w 2018 roku po wielu latach spędzonych w Google, jest odpowiedzialny za tę nową inicjatywę.
Podsumowując, decyzja Apple zakazująca korzystania z narzędzi opartych na sztucznej inteligencji przez swoich pracowników jest częścią szerszego trendu. Firmy coraz bardziej zwracają uwagę na prywatność i bezpieczeństwo danych swoich pracowników. Jednocześnie, Apple podejmuje kroki w celu opracowania własnych rozwiązań opartych na sztucznej inteligencji, aby lepiej kontrolować swoje procesy i zapewnić większą ochronę prywatności. Będziemy śledzić rozwój tych wydarzeń i dostarczać Wam najnowsze informacje.
Image by Alexandra_Koch from Pixabay