Najbardziej zaawansowana aplikacja do ochrony cybernetycznej dla Androida - Bitdefender Mobile Security & Antivirus

Pobierz

Poradniki

Czego nie należy udostępniać chatbotom AI?

Piotr R

20 marca 2024

ChatGPT był pierwszym chatbotem AI, który zyskał globalne uznanie. Od czasu jego premiery pojawiło się wiele innych chatbotów obsługujących sztuczną inteligencję, zapewniających szerszy zakres opcji odpowiadających Twoim konkretnym potrzebom. Chatboty AI stały się niezwykle popularnymi i użytecznymi narzędziami pozyskiwania informacji, porad i pomocy na różne tematy. Możesz ich używać do tworzenia biznesplanu, planowania ogrodu, pisania artykułów lub kodu, redagowania e-maili, generowania grafiki, obrazów, filmów i prawie wszystkiego, co możesz sobie wyobrazić.

Mężczyzna korzysta z chatbotu AI

Jednak im bardziej zaawansowani i zintegrowani stają się asystenci AI w naszym życiu, tym ostrożniej musimy zachować się, udostępniając im dane osobowe. Dlaczego? Ponieważ nie można im ufać w przypadku wrażliwych danych.

Niebezpieczeństwa związane z chatbotami AI

Aby zrozumieć ryzyko prywatności związane z chatbotami AI, ważne jest, aby wiedzieć, jak działają. Chatboty gromadzą i przechowują pełne transkrypcje rozmów toczących się podczas interakcji z nimi. Obejmuje to wszystkie pytania, podpowiedzi, wiadomości wysyłane do chatbota i ich odpowiedzi. Firmy stojące za tymi asystentami AI analizują i przetwarzają dane konwersacyjne w celu szkolenia i ulepszania swoich dużych modeli językowych.

Pomyśl o chatbocie jak o uczniu, który robi notatki podczas zajęć. Chatbot AI zapisuje dosłownie wszystko, co mówisz, więc uchwycony zostaje pełny kontekst i szczegóły. Następnie firma zajmująca się sztuczną inteligencją przegląda te „notatki”, aby pomóc chatbotowi w nauce, podobnie jak uczeń studiuje notatki z zajęć, aby poszerzyć swoją wiedzę. Chociaż celem jest zwiększenie zrozumienia języka i umiejętności dialogu sztucznej inteligencji, oznacza to, że surowe dane konwersacyjne – które mogą potencjalnie obejmować dane osobowe, opinie i ujawnione przez Ciebie wrażliwe szczegóły – są gromadzone, przechowywane i analizowane przez firmy zajmujące się sztuczną inteligencją.

Ryzyko nadmiernego udostępniania

Kiedy udostępniasz dane osobowe lub wrażliwe chatbotowi AI, tracisz kontrolę nad tym, gdzie te dane trafiają i w jaki sposób mogą być wykorzystywane. Chatboty AI przechowują dane na serwerach, które mogą stać się podatne na próby włamań lub naruszenia. Serwery te przechowują mnóstwo informacji, które cyberprzestępcy mogą wykorzystać na różne sposoby. Mogą infiltrować serwery, kraść dane i sprzedawać je na ciemnych rynkach internetowych. Ponadto hakerzy mogą wykorzystać te dane do łamania haseł i uzyskiwania nieautoryzowanego dostępu do Twoich urządzeń.

Wszelkie podane przez Ciebie dane mogą potencjalnie zostać ujawnione, zhakowane lub niewłaściwie wykorzystane, co może prowadzić do kradzieży tożsamości, oszustw finansowych lub publicznego ujawnienia intymnych informacji, które wolisz zachować dla siebie. Ochrona Twojej prywatności oznacza wybiórcze podejście do szczegółów ujawnianych chatbotom AI.

Czego nie mówić chatbotowi AI?

Jeśli chcesz chronić swoją prywatność i dane osobowe, bądź selektywny w tym, co udostępniasz chatbotom AI.

Zachowaj szczególną ostrożność w przypadku tego typu danych:

1. Dane osobowe: unikaj udostępniania kluczowych danych osobowych, takich jak imię i nazwisko, adres, numer telefonu, data urodzenia, numer ubezpieczenia społecznego lub inne numery identyfikacyjne. Każde z nich może zostać wykorzystany do podszywania się pod Ciebie, co może prowadzić do kradzieży tożsamości, oszustw finansowych lub innego przestępczego nadużycia Twoich danych osobowych.

2. Nazwy użytkowników i hasła: nigdy nie udostępniaj haseł, kodów PIN, kodów uwierzytelniających ani innych danych logowania chatbotom AI. Nawet podanie wskazówek dotyczących danych uwierzytelniających może pomóc hakerom uzyskać dostęp do Twoich kont.

3. Twoje informacje finansowe: nigdy nie powinieneś udostępniać chatbotom AI żadnych informacji o koncie finansowym, numerach kart kredytowych ani szczegółach dotyczących dochodów.

Możesz poprosić chatbot AI o ogólne wskazówki i porady finansowe, rady pomocne w budżetowaniu, a nawet o wskazówki podatkowe, ale zachowaj swoje dane finansowe tylko dla siebie, ponieważ może to łatwo doprowadzić do naruszenia bezpieczeństwa Twoich rachunków finansowych i aktywów.

4. Prywatne i intymne przemyślenia: chociaż chatboty AI mogą być postrzegani jako życzliwi słuchacze, należy unikać ujawniania głęboko osobistych myśli, doświadczeń lub opinii, którymi nie chciałbyś się dzielić publicznie. Wszystko, od poglądów politycznych, lub religijnych po problemy w związkach lub zmagania emocjonalne. Dane te mogą zostać ujawnione, jeśli dzienniki rozmów zostaną zhakowane lub niewłaściwie obsłużone.

5. Poufne informacje związane z pracą: jeśli pracujesz z informacjami zastrzeżonymi, tajemnicami handlowymi, wiedzą poufną lub wszelkiego rodzaju poufnymi danymi w miejscu pracy, nie rozmawiaj o tym z publicznymi chatbotami AI. Unikaj używania chatbotów AI do podsumowywania protokołów spotkań lub automatyzacji powtarzalnych zadań, ponieważ stwarza to ryzyko niezamierzonego ujawnienia wrażliwych danych lub naruszenia umów o poufności i ochrony własności intelektualnej Twojego pracodawcy.

W raporcie Bloomberga zwrócono uwagę na przypadek, w którym pracownicy firmy Samsung wykorzystali ChatGPT do celów kodowania i przypadkowo przesłali wrażliwy kod na platformę generatywnej sztucznej inteligencji. Incydent ten spowodował ujawnienie poufnych informacji na temat Samsunga, co skłoniło firmę do wyegzekwowania zakazu korzystania z chatbota AI.

Największe firmy technologiczne, takie jak Apple, Samsung, JPMorgan i Google, wdrożyły nawet zasady zabraniające swoim pracownikom używania chatbotów AI w pracy.

6. Twoja oryginalna praca twórcza: nigdy nie udostępniaj swoich oryginalnych pomysłów chatbotom, jeśli nie chcesz, aby zostały udostępnione wszystkim innym użytkownikom.

7. Informacje dotyczące zdrowia:

Ankieta przeprowadzona przez firmę Tebra z branży technologii medycznych wykazała, że:

  • 1 na 4 Amerykanów częściej rozmawia z chatbotem AI zamiast uczęszczać na terapię.
  • Ponad 5% Amerykanów zwróciło się do Chat GPT w celu uzyskania diagnozy medycznej i zastosowało się do jego rad.

Ochrona danych zdrowotnych oznacza ochronę dostępu do właściwej opieki medycznej, zachowanie poufności i zabezpieczenie przed potencjalnymi naruszeniami prywatności lub niewłaściwym wykorzystaniem wrażliwych informacji medycznych. Dlatego nigdy nie ujawniaj chatbotom AI swoich schorzeń, diagnoz, szczegółów leczenia ani schematów leczenia. Zamiast tego porozmawiaj z wykwalifikowanymi pracownikami służby zdrowia w bezpiecznym i prywatnym otoczeniu.

Jak bezpiecznie korzystać z chatbotów AI?

Oto 3 rzeczy, które możesz zrobić, aby bezpiecznie korzystać z chatbotów i chronić swoją prywatność.

1. Zachowaj ostrożność w zakresie przekazywanych informacji.

2. Przeczytaj politykę prywatności i poszukaj ustawień prywatności chatbota.

3. Jeśli jest to możliwe, skorzystaj z opcji rezygnacji z wykorzystywania Twoich danych do szkolenia modeli językowych.

Korzystanie z trybów incognito/prywatnego, czyszczenie historii rozmów i dostosowywanie ustawień danych to główne sposoby ograniczenia gromadzenia danych przez chatboty AI. Większość głównych dostawców chatbotów AI oferuje takie opcje.

Oto kilka przykładów:

OpenAI (ChatGPT, GPT-3):

  • Użyj trybu incognito/przeglądania prywatnego.
  • Włącz opcję „Nie zapisuj historii” w ustawieniach.
  • Regularnie czyść historię rozmów.

Antropiczny (Claude):

  • Włącz ustawienie „Filtrowanie prywatności”, aby zapobiec gromadzeniu danych.
  • Użyj funkcji „Tryb incognito”.

Google (Bard, LaMDA):

  • Użyj trybu gościa lub trybu incognito.
  • Sprawdź i dostosuj ustawienia danych Google.

Spraw, aby sztuczna inteligencja zapewniła Ci bezpieczeństwo

Zachowanie ostrożności jest rozsądne, ale co by było, gdybyś mógł posunąć się jeszcze dalej w zakresie ochrony prywatności, wykorzystując asystenta AI zaprojektowanego specjalnie po to, aby Cię chronić?

Scamio to chatbot AI nowej generacji oparty na sztucznej inteligencji, zaprojektowany do wykrywania oszustw i nieuczciwych działań. Możesz wysłać Scamio podstępny SMS, e-mail, wiadomość błyskawiczną, link, a nawet otrzymany kod QR, a otrzymasz natychmiastową analizę w celu ustalenia, czy jest to próba oszustwa.

Pamiętaj także o tym, aby zawsze korzystać ze skutecznego systemu antywirusowego, np. Bitdefender Total Security, który uchroni Cię przed phishingiem i złośliwym oprogramowaniem.


Autor


Piotr R

Account Manager, od ponad roku pracuję w branży IT i od ponad 5 lat jestem copywriterem. Do moich zadań należy nawiązywanie współpracy partnerskich, pisanie i redagowanie tekstów, kontakt z dziennikarzami, tworzenie notatek prasowych oraz zamieszczanie ich na stronach internetowych i w naszych mediach społecznościowych. Wcześniej byłem przez kilka lat związany z branżą OZE oraz z technologiami telemetrycznymi i elektronicznymi. Interesuję się językoznawstwem, literaturą, grą na gitarze oraz branżą gier.

Zobacz posty autora


Artykuły które mogą Ci się spodobać

    Formularz kontaktowy

    Wybierz odpowiednią opcję aby przejść do formularza kontaktowego. Odpowiemy najszybciej jak to możliwe!

    klient-indywidualnyklient-biznesowyreseller

    Dane kontaktowe




    stalynowy