Image by American Life League’s photostream, from Flikr
Departament Zdrowia i Opieki Społecznej Wprowadza Narzędzie AI
Departament Zdrowia i Opieki Społecznej (HHS) wprowadził ChatGPT dla wszystkich pracowników w celu poprawy efektywności, ale ostrzega pracowników, aby zachowali należytą ostrożność podczas obsługi poufnych informacji.
Spieszysz się? Oto najważniejsze fakty:
- Wprowadzenie nadzorowane przez CIO Clarka Minora, byłego pracownika Palantir.
- Nie można wprowadzać wrażliwych danych, takich jak numery PESEL i dane bankowe.
- Pozostają obawy dotyczące uprzedzeń w systemach AI wpływających na opiekę nad pacjentem.
HHS wysłało email do wszystkich pracowników, informując, że ChatGPT zostanie wprowadzony dla wszystkich pracowników organizacji. Email, od zastępcy sekretarza Jima O’Neilla, zatytułowany „Wdrożenie AI”, jest częścią inicjatywy prowadzonej przez Clarka Minora, głównego informatyka HHS, który wcześniej pracował w Palantir.
„Sztuczna inteligencja zaczyna poprawiać opiekę zdrowotną, biznes i rząd,” czytamy w mailu, jak pierwsze doniesienia przekazał 404Media.
„Nasz departament jest zobowiązany do wspierania i zachęcania do tej transformacji. W wielu biurach na całym świecie rosnące obciążenie administracyjne związane z obszerną korespondencją mailową i spotkaniami może rozpraszać nawet najbardziej zmotywowane osoby od wykonywania swoich zadań. Wszyscy powinniśmy być czujni na przeszkody, które mogłyby spowolnić nasz postęp w kierunku ponownego zdrowienia Ameryki.”
Treść emaila dodaje,
Z radością informuję o udostępnieniu ChatGPT dla wszystkich w Departamencie z natychmiastowym skutkiem. Niektóre działy operacyjne, takie jak FDA i ACF [Administracja ds. Dzieci i Rodzin], już skorzystały z konkretnych wdrożeń dużych modeli językowych, które pomogły im w ich pracy, a teraz reszta z nas może do nich dołączyć. To narzędzie może nam pomóc promować rygorystyczną naukę, radykalną przejrzystość i solidne zdrowie. Jak powiedział Sekretarz Kennedy, ‚Rewolucja AI nadeszła.’
Personel HHS otrzymał instrukcje dotyczące logowania sie przy użyciu rządowych adresów email i może zadawać pytania ChatGPT, dopracowywać odpowiedzi i konsultować różne perspektywy.
„Oczywiście, powinnaś podchodzić sceptycznie do wszystkiego, co czytasz, zwracać uwagę na potencjalne stronniczość i traktować odpowiedzi jako sugestie. Przed podjęciem ważnej decyzji, upewnij się, że wzięłaś pod uwagę oryginalne źródła i kontrargumenty. Podobnie jak inne LLM, ChatGPT jest szczególnie dobry w podsumowywaniu długich dokumentów,” mówi email.
Minor „podjęła środki ostrożności, aby zapewnić, że twoja praca z AI jest prowadzona w środowisku o wysokim poziomie bezpieczeństwa,” dodaje email, zauważając, że większość wewnętrznych danych, w tym informacje wrażliwe na zakupy, można bezpiecznie wprowadzać.
Jednak ostrzega, że ChatGPT „aktualnie nie jest zatwierdzony do ujawniania wrażliwych informacji osobistych (takich jak numery PESEL i numer konta bankowego), informacji poufnych, danych kontrolowanych pod kątem eksportu, czy też poufnych informacji handlowych podlegających Ustawie o Tajemnicach Handlowych”.
Rozpoczęcie stosowania ChatGPT następuje w kontekście szerszych działań federalnych mających na celu integrację z AI i budzi obawy o stronniczość systemów AI, zwłaszcza w programach takich jak Medicare i Medicaid, które określają kwalifikacje pacjentów do leczenia.