Najbardziej zaawansowana aplikacja do ochrony cybernetycznej dla Androida - Bitdefender Mobile Security & Antivirus

Pobierz

AktualnościBezpieczeństwo w InternecieCiekawostki

Prognozy dotyczące cyberbezpieczeństwa dla sztucznej inteligencji na rok 2024

Piotr R

10 stycznia 2024

Myśląc o zastosowaniach sztucznej inteligencji w cyberprzestępczości, pamiętaj o zastosowaniu zasady brzytwy Ockhama. Napastnicy nie zawsze potrzebują wymyślnych narzędzi, ponieważ nasze społeczeństwo wciąż boryka się z podstawowymi brakami w stosowaniu zasad cyberhigieny. Atakujący dostosowują swoje narzędzia do przeciwdziałania obronie i mogą nie zawracać sobie głowy skomplikowanymi narzędziami. Używają sztucznej inteligencji, aby ułatwić rutynowe zadania, tak jak my. W 2024 roku najważniejszym ryzykiem związanym ze sztuczną inteligencją w cyberbezpieczeństwie może okazać się jej przekształcenie w modne hasło. Firmy mogą pominąć podstawowe kroki ochronne, koncentrując się na teoretycznych zagrożeniach związanych ze sztuczną inteligencją za pomocą niesprawdzonych produktów zabezpieczających. Zachowaj zrównoważone podejście, koncentrując się na sprawdzonych strategiach, takich jak dogłębna obrona i wielowarstwowe bezpieczeństwo.

Sztuczna inteligencja

Ogólne przewidywania w związku z rozwojem sztucznej inteligencji

W ostatnich prognozach zespołu Bitdefender dotyczących oprogramowania ransomware na rok 2024 stwierdzono, że zachowanie grup zajmujących się oprogramowaniem ransomware jest bardziej przewidywalne, ponieważ są to podmioty racjonalne i motywowane finansowo. Natomiast przewidywania dotyczące sztucznej inteligencji są zupełnie odwrotne. Cechą charakterystyczną każdej przełomowej technologii jest to, że obecnie znajdujemy się w fazie intensywnych innowacji zarówno w zakresie technologii, jak i jej zastosowań, przy czym różne podejścia pojawiają się i szybko zanikają. Choć ostatecznie wszystko ułoży się w bardziej przewidywalny sposób, rok 2024 nadal będzie nieprzewidywalny. Dlatego, jeśli odpowiadasz za cyberbezpieczeństwo swojej firmy, przygotuj się na wyboistą drogę z nieoczekiwanymi zwrotami akcji.

Sztuczna inteligencja posłuży raczej do zwiększenia liczby stanowisk pracy niż ich unicestwienia.

Sztuczna inteligencja nie zastąpi Twojej pracy, ale być może zrobi to ktoś, kto wie, jak skutecznie wykorzystywać sztuczną inteligencję. Sztuczna inteligencja doskonale radzi sobie z ulepszaniem lub uzupełnianiem istniejących umiejętności, a te same ograniczenia dotyczą cyberprzestępców. Choć może się to wydawać nudne, najbardziej praktyczne zastosowanie sztucznej inteligencji dla cyberprzestępców może polegać na upraszczaniu przyziemnych zadań. Można się spodziewać, że dzięki sztucznej inteligencji cyberprzestępcy staną się bardziej produktywni, zamiast osiągać zupełnie nowy poziom. Godnym uwagi wyjątkiem od tej reguły są deepfakes, ale zajmiemy się tym później.

Nawet niewielkie postępy w ofensywie dzięki LLM będą skuteczne

Teoretycznie defensywne zastosowania sztucznej inteligencji powinny przewyższać korzyści płynące z zastosowań ofensywnych, zwłaszcza biorąc pod uwagę obawy dotyczące bezpieczeństwa operacyjnego podmiotów zagrażających. Cyberprzestępcy z reguły zachowują ostrożność, nie inwestują zbyt wiele czasu, pieniędzy i wysiłku na system, który można szybko zmodyfikować i zrujnować ich pracę. Cyberprzestępcy zazwyczaj skłaniają się ku prostych, powtarzalnych i skalowalnych schematach, podczas gdy sztuczna inteligencja działa dynamicznie oraz podlega ciągłym zmianom.

W przypadku cyberprzestępców zespół Bitdefender spodziewa się, że sztuczna inteligencja będzie wykorzystywana przede wszystkim we wzmocnionych atakach socjotechnicznych, w których ludzie pozostają na pierwszej linii obrony. Bazując na przeszłych doświadczeniach, wiemy, że pomimo znacznych wysiłków włożonych w szkolenia i symulacje, to właśnie pracownicy są najsłabszym ogniwem w każdej strukturze sieciowej. Jeśli nasza zdolność rozpoznawania podejrzanych zachowań pozostanie taka sama, nawet niewielkie ulepszenia dla atakujących zwiększą ich szanse na sukces.

Ataki hybrydowe zacierają granice między precyzją a szeroką taktyką

Cyberprzestępcy prawdopodobnie będą preferować wykorzystywanie sztucznej inteligencji w taki sposób, aby nie można było ustalić, czy atak został przeprowadzony przez wyrafinowane ugrupowanie zagrażające, czy przy pomocy AI. Początkowo podmioty zagrażające mogą aktywnie próbować ukryć wykorzystanie sztucznej inteligencji w swoich operacjach, co jeszcze bardziej komplikuje wysiłki związane z pracą ekspertów ds. cyberbezpieczeństwa. Możliwości automatyzacji sztucznej inteligencji umożliwią cyberprzestępcom wprowadzenie zindywidualizowanego podejścia do każdego ataku, nawet jeśli zostanie on przeprowadzony na dużą skalę.

LLM będą reprezentować kolejny etap globalizacji

Tym, co naprawdę odróżnia LLM (Large Language Model) od starszych modeli uczenia maszynowego, jest ich zdolność do przetwarzania języka naturalnego. Modele LLM, takie jak ChatGPT, często są po prostu pewnymi siebie kłamcami. Jednak w przypadku języka angielskiego, ich biegłość jest naprawdę niezwykła.

Wyeliminowanie barier językowych umożliwi cyberprzestępcom (i oczywiście innym osobom) rozszerzenie swoich działań na szerszą publiczność. Wykracza to poza względy językowe i obejmuje terminy branżowe, akronimy poufne lub bieżące wydarzenia, które mają wpływ na docelową grupę odbiorców. Na przykład języki słowiańskie, w których brakuje pojęcia przedimka, stanowią częste wyzwanie podczas prób pisania po angielsku, nawet dla osób z bogatym słownictwem. ChatGPT rozwiąże ten problem.

Jest mało prawdopodobne, aby rok 2024 był erą złych LLM

Cyberprzestępcy mogą opracować niestandardowy LLM, wymagający wiedzy technicznej i zasobów. Jednakże w istniejących złośliwych narzędziach LLM wykazano powszechny schemat: większość albo próbowała oszukać oszustów, albo osiągała słabsze wyniki. Wiele z tych modeli kompensowało swój brak rzeczywistych umiejętności, przyjmując język „l33t hax0r”. Są one bardziej odpowiednie do generowania jawnych historii niż do tworzenia rzeczywistych szkodliwych treści. To się zmieni, ponieważ coraz łatwiej będzie adaptować modele lokalne za pomocą wysoce wydajnych LLM (na przykład Mixtral z technikami takimi jak QLora). Chociaż obecnie jest mało prawdopodobne, aby takie podejście wystarczyło do skonstruowania „ogólnych złośliwych programów LLM”, które mogłyby pomóc w rozwoju złośliwego oprogramowania, rzeczywiste zagrożenie polega na tym, że LLM mogą być kierowane przez oszustów, co będzie najprawdopodobniej bardzo realnym problemem w tym roku.

Drugą opcją dla aktorów zagrażających jest jailbreak zwykłych LLM. Jailbreaking LLM wymaga szybkich umiejętności inżynieryjnych i chociaż może przynieść rezultaty, wyniki te są zazwyczaj tymczasowe. Co najważniejsze, wiedza specjalistyczna wymagana w zakresie szybkiej inżynierii zwykle wyklucza mniej doświadczonych aktorów zagrażających, którzy odnieśliby największe korzyści z dostępu do LLM.

Wreszcie trzecią opcją jest poleganie na GPT, a konkretnie niestandardowych wersjach ChatGPT, które można utworzyć do określonych celów. GPT Builder z OpenAI oferuje platformę, dzięki której użytkownicy mogą dostosowywać ChatGPT do określonych zadań bez kodowania. Dostarczając instrukcje i wybierając funkcje, użytkownicy mogą tworzyć dostosowane GPT, takie jak pomoc w grach planszowych, nauczanie matematyki lub pomaganie cyberprzestępcom. Narzędzie nadaje priorytet kontroli prywatności, umożliwiając użytkownikom zarządzanie danymi i interakcjami, a także kładzie nacisk na podejście do rozwoju sztucznej inteligencji zorientowane na społeczność.

Przewidując krótkoterminowe wykorzystanie, zespół Bitdefender zakłada, że w ciągu najbliższych 2–3 miesięcy oszuści częściej będą korzystać z ChatGPT, a ostatecznie modele lokalne staną się preferowanym podejściem cyberprzestępców wykorzystujących LLM. Lokalne szkolenie i wdrażanie potężnych LLM staje się coraz łatwiejsze, a różni dostawcy oferują nawet łatwe w użyciu i tanie usługi szkoleniowe w chmurze, które może, obejmować odpowiednie zabezpieczenia niezbędne do uniknięcia pomagania podmiotom w opracowywaniu złośliwych LLM.

Sztuczna inteligencja – czy jest niebezpieczna?

Chociaż przewidywanie przyszłości sztucznej inteligencji na cały rok jest trudne, w tym przypadku jest całkiem pewne, że należy spodziewać się ewolucji trzech typów ataków przedstawionych poniżej.

Ogólna inżynieria społeczna

Przez „ogólną inżynierię społeczną” mamy na myśli ataki oportunistyczne, które zarzucają szeroką sieć i próbują złapać w pułapkę, kogo tylko się da. W kontekście tych ataków wprowadzenie LLM w bieżącym roku wiąże się z kilkoma znaczącymi zmianami:

Prognozy inżynierii społecznej

Ewolucja prostego phishingu

Chatboty obsługiwane przez LLM mogą usunąć jedno z historycznych ograniczeń ogólnej inżynierii społecznej. Tradycyjnie niektóre oszustwa, takie jak dobrze znane programy typu nigeryjski królewicz lub amerykański żołnierz na misji, opierały się na podstawowej strategii „testu IQ” w celu filtrowania odpowiedzi. W programach opłat zaliczkowych często stosowano narracje, które przy minimalnym krytycznym myśleniu można było łatwo zidentyfikować jako fałszywe. Osoby, które odpowiedziały oszustom, częściej stawały się nieświadomymi ofiarami. Strategia ta była praktycznym sposobem zapobiegania przytłaczającej liczbie interakcji. Jednak dostępność chatbotów przypominających ludzi sprawia, że ta bariera skalowalności staje się przestarzała, umożliwiając bardziej zaawansowanym technologicznie cyberprzestępcom zwiększenie wiarygodności systemów opłat z góry. To przejście będzie następować stopniowo, w miarę jak chatboty staną się łatwiejsze do wdrożenia.

Deepfake staną się realnym zagrożeniem

Należy się spodziewać prawdziwego wyzwania, jakie stanowić będą deepfakes w 2024 r. Przekonujące deepfakes wymagają godzin materiałów audio i wideo do celów szkoleniowych, a są one zwykle dostępne dla osób publicznych, takich jak politycy czy wpływowe osobistości mediów społecznościowych. Połączenie zaawansowanej technologii i zbliżających się wyborów w głównych krajach tworzy idealne środowisko dla podmiotów zagrażających do eksperymentowania z tą technologią. Chociaż deepfakes będą głównie napędzać kampanie dezinformacyjne, oczekuje się, że będą również wykorzystywane do celów finansowych. Na horyzoncie widać gwałtowny wzrost liczby prób przejęć na platformach mediów społecznościowych, w połączeniu z wykorzystaniem deepfakes do podszywania się pod pierwotnych właścicieli – zwłaszcza w przypadku oszustw związanych z kryptowalutami. To dobry moment, aby nauczyć się rozpoznawać deepfakes.

Ukierunkowana inżynieria społeczna

Podobnie jak w przypadku ataków ogólnych, należy spodziewać się ogólnej poprawy jakości prób phishingu typu spear. Oto, czego oczekuje zespół Bitdefender od tej klasy ataków:

Prognozy ukierunkowanej inżynierii społecznej

Omijanie taktyk wysokiego poziomu

W ostatnich latach byliśmy świadkami bardzo wyrafinowanych ataków, których przygotowanie wymagało dużej ilości czasu, poświęcenia i inwestycji. Jednakże metody LLM mogą znacząco obniżyć barierę wejścia dla takich ataków, czyniąc je dostępnymi dla szerszego grona podmiotów zagrażających. To nie tylko zwiększa pulę potencjalnych atakujących, ale także umożliwia już zdolnym podmiotom zagrażającym częstsze przeprowadzanie tych wyrafinowanych ataków.

Gwałtowny wzrost liczby ataków typu Business Email Compromise (BEC)

Zgodnie z prognozami zespołu Bitdefender dotyczącymi oprogramowania ransomware na rok 2024 przewidywany jest gwałtowny wzrost liczby ataków typu Business Email Compromise (BEC), których celem są firmy każdej wielkości, w tym te najmniejsze. Tendencja ta, zapoczątkowana jeszcze przed wprowadzeniem rozwiązań z wykorzystaniem sztucznej inteligencji, stanie się poważnym ryzykiem w 2024 r. Wykorzystując narzędzia LLM, cyberprzestępcy mogą z łatwością odtworzyć styl komunikacji, terminologię i wiedzę poufną kadry kierowniczej, wprowadzając ich wcześniejsze rozmowy do tych modeli.

Deepfaked CEO

Tworzenie deepfake’ów wiąże się z wykorzystaniem obszernych danych audio i wideo wprowadzonych do modelu, czyli zasobu powszechnie niedostępnego dla zwykłych ludzi. Jednak w przypadku osób publicznych, takich jak właściciele i dyrektorzy generalni, dane te są bardziej dostępne, zwłaszcza biorąc pod uwagę wydarzenia takie jak kwartalne rozmowy telefoniczne. Chociaż w przeszłości deepfakes były rzadkością, zespół Btdefender przewiduje, że w 2024 r. będziemy spotykać się z nimi częściej. Pozytywnym zjawiskiem jest to, że obecne badania koncentrują się na szerszym podejściu do rozpoznawania deepfakes, odchodząc od pojedynczej identyfikacji poszczególnych modeli.

Wielokrotne skoordynowane ataki

W miarę zmniejszania się bariery dla wyrafinowanych ataków Bitdefender przewiduje pojawienie się ataków, które wcześniej były możliwe, ale uznano je za zbyt pracochłonne i wymagające logistycznie. Obejmuje to koordynację ataków na wiele firm, zwłaszcza podczas scenariuszy takich, jak przejęcia/fuzje lub wśród firm należących do tej samej rodziny korporacyjnej.

Rozwój złośliwego oprogramowania

W 2023 r. Bitdefender otrzymał wiele wiadomości na temat złośliwego oprogramowania opracowanego przez sztuczną inteligencję, z pewnymi bombastycznymi twierdzeniami. Przeanalizowano te złośliwe oprogramowania i nie zrobiły one zbyt dużego wrażenia na ekspertach do spraw cyberbezpieczeństwa. Jakość kodu złośliwego oprogramowania tworzonego przez sztuczną inteligencję jest zwykle niska, co czyni go mniej atrakcyjną opcją dla doświadczonych twórców złośliwego oprogramowania, którzy mogą znaleźć lepsze przykłady w publicznych repozytoriach kodu, takich jak GitHub. Czy możesz generować złośliwe oprogramowanie za pomocą ChatGPT? Tak. Jednak czy jest to lepsza jakość niż to, co jest już dostępne jako towar? NIE.

Dobra wiadomość jest taka, że sztuczna inteligencja pomaga badaczom bezpieczeństwa w analizie kodu i inżynierii wstecznej – obszarach, w których Bitdefender Labs jest pionierem od dłuższego czasu. Chociaż sztuczna inteligencja może niedawno pojawić się w mediach głównego nurtu i świadomości publicznej, jej włączenie do praktyk w zakresie cyberbezpieczeństwa nie jest niczym nowym. Bitdefender wprowadził uczenie maszynowe prawie 15 lat temu. Co ciekawe, wiele wykryć zagrożeń jest zaprojektowanych pod kątem złośliwego oprogramowania, które nawet się nie pojawiło. Jako przykład, że technologia ta nie jest nowa, może posłużyć model, który wykrył WannaCry (istotne wydarzenie w 2017 r.), został wyszkolony prawie dziesięć lat temu w 2014 r. (3 lata przed faktycznym atakiem).

W bieżących badaniach nad sztuczną inteligencją, zespół Bitdefender przeprowadza analizy takich aspektów, jak genetyczna sztuczna inteligencja i generatywne sieci przeciwstawne (GAN). Genetyczna sztuczna inteligencja, inspirowana doborem naturalnym, ewoluuje przez pokolenia, przypominając ewolucję gatunków w przyrodzie. Ta nauka usprawnia wykrywanie zagrożeń bez konieczności stosowania ręcznych reguł i dostrajania. Z drugiej strony sieci GAN działają jako dynamiczny duet – generator tworzący realistyczne dane i dyskryminator odróżniający treści rzeczywiste od syntetycznych. Pomyśl o tym jak o artyście (generatorze) tworzącym fałszerstwa i krytyku sztuki (dyskryminatorze) uczącym się je wykrywać.

Prognozy rozwoju złośliwego oprogramowania

Nie spodziewaj się Skynetu ani HAL 9000 myśląc o najnowszym złośliwym oprogramowaniu opartym na sztucznej inteligencji. Nie wyobrażaj sobie złożonego pliku binarnego umiejętnie manewrującego w Twojej sieci w celu wykrycia luk w zabezpieczeniach do wykorzystania. Zamiast tego wyobraź sobie kod z niewielkimi dostosowaniami, stworzony w wybranym przez Ciebie języku. Dzieciaki skryptowe z większym prawdopodobieństwem uznają tę możliwość za atrakcyjną w porównaniu z doświadczonymi twórcami złośliwego oprogramowania.

Masa przeciętnego złośliwego oprogramowania

Wbrew powszechnemu przekonaniu, powszechne obecnie złośliwe oprogramowanie jest już dynamiczne i zmienia się; laboratoria Bitdefender przetwarzają około 400 unikalnych zagrożeń co minutę (!). Jeśli ChatGPT może dostarczyć więcej przeciętnego złośliwego oprogramowania, poradzimy sobie z tym. Podmioty zagrażające znajdą większe zastosowanie dla LLM w językach ludzkich, a nie maszynowych. Warto zauważyć, że podobnie jak w prawdziwym życiu nie uniemożliwia to niektórym podmiotom zagrażającym wykorzystywania sztucznej inteligencji do celów marketingowych.

Wartościowe cele ICS/SCADA

Co roku pojawiają się prognozy dotyczące podatności infrastruktury krytycznej na cyberataki. Do tej pory zagrożenie to było w pewnym stopniu łagodzone dzięki koncepcji wzajemnego gwarantowanego zniszczenia (MAD). Osoby posiadające możliwość wykorzystania tych systemów (zwykle ugrupowania cyberprzestępcze sponsorowane przez państwo) są świadome autodestrukcyjnych konsekwencji takich ataków. Jednak przy pomocy sztucznej inteligencji i możliwości manipulowania wyjściowymi językami programowania systemy SCADA/ICS mogą stać się dostępne dla szerszego zakresu podmiotów zagrażających. Wiedza wymagana w przypadku języków zgodnych z normą IEC 61131-3 nie jest powszechna, a sztuczna inteligencja ma potencjał, aby wypełnić tę lukę, potencjalnie poszerzając grupę podmiotów posiadających zdolność do atakowania tych krytycznych systemów.

W dziedzinie złośliwego kodu badacze bezpieczeństwa zwykle wyprzedzają cyberprzestępców. Prawdziwym powodem do niepokoju są ataki wykorzystujące czynnik ludzki. Głównym przedmiotem troski powinny być zagrożenia oparte na ludzkich słabościach.

Gromadzenie informacji wywiadowczych i OSINT

Co zaskakujące, jedno z najczęstszych pytań na temat sztucznej inteligencji, które otrzymują specjaliści ds. cyberbezpieczeństwa, dotyczy jej możliwości w badaniach rynkowych. Czy można go wykorzystać do zebrania większej ilości informacji o konkretnej firmie, ustalenia, czy firma jest potencjalnie niebezpieczna lub przedstawienia krótkiego przeglądu jej aktualnej sytuacji finansowej? Są to te same pytania, na które cyberprzestępcy starają się odpowiedzieć podczas operacji Open-Source Intelligence (OSINT). Grupy zajmujące się oprogramowaniem ransomware jako usługą (RaaS) często obejmują dedykowane zespoły OSINT, których zadaniem jest ocena i określenie odpowiednich żądań okupu.

Gromadzenie informacji wywiadowczych i prognozy OSINT

Kalkulator okupu

Podobnie jak narzędzia takie jak CrunchBase, narzędzia wykorzystujące sztuczną inteligencję mogą pomóc w gromadzeniu informacji o firmach. Nie tylko w dostarczaniu przeglądów historii i statusu finansowego firmy, ale także w analizowaniu najnowszych wiadomości, w tym fuzji i przejęć. Jednym z najbardziej praktycznych i najłatwiejszych do zarabiania zastosowań sztucznej inteligencji jest opracowanie narzędzia rozpoznawczego opartego na SI, umożliwiającego analizowanie ogromnych ilości danych oraz identyfikowanie celów o dużej wartości i posiadających znaczne możliwości finansowe. Inteligentnie wybierając i atakując organizacje o najwyższym potencjale zapłacenia znacznych okupów, grupy oprogramowania ransomware mogą zwiększyć swoje maksymalne żądania okupu, co może prowadzić do potencjalnie wyższych zysków ze swoich szkodliwych działań.

Ryzyko wycieku wrażliwych danych

Chociaż LLM oparte na sztucznej inteligencji oferują potężne możliwości, obecne wdrożenia często przypominają „dziki zachód”, ponieważ firmy i pracownicy włączają AI do swoich przepływów pracy. Ryzyko wycieku wrażliwych danych stanowi intrygującą szansę dla cyberprzestępców na etapie uczenia się, zwłaszcza że grupy zajmujące się oprogramowaniem ransomware w dalszym ciągu skupiają się na eksfiltracji danych. Nie zdziwilibyśmy się, gdyby w 2024 r. doszło do poważnego naruszenia bezpieczeństwa, gdy celem ataku socjotechnicznego była korporacyjna firma LLM.

Analizowanie wycieków danych publicznych

Dostosowane komunikaty generowane przez firmy LLM można wykorzystać do opracowania przekonujących ataków typu spear-phishing, wykorzystując informacje uzyskane z publicznych wycieków lub witryn firmowych. Ta automatyzacja nie tylko skaluje zakres potencjalnych celów, ale także zwiększa autentyczność złośliwej komunikacji.

Sortowanie wydobytych danych

Cyberprzestępcy mogą wreszcie wykorzystać LLM do przesiewania danych wydobytych z docelowych firm. Zrozumienie języka naturalnego przez modele umożliwia kategoryzację i identyfikację wrażliwych informacji w skradzionych danych. Kradzież terabajtów danych to jedno; znalezienie informacji, które można skutecznie wykorzystać do szantażu, to zupełnie inne wyzwanie.

Ewolucja sztucznej inteligencji w 2024 roku – kluczowe wnioski

Rozważając przyszłość sztucznej inteligencji i jej rolę w cyberprzestępczości, należy koniecznie pamiętać o „stronniczości zakotwiczającej”. Rozważając ewolucję ofensywnej sztucznej inteligencji, równie ważnym jest, aby nie przeoczyć ciągłego rozwoju defensywnej AI. Zamiast szukać nieuchwytnych szybkich rozwiązań, należy skupić się na sprawdzonych strategiach, które przetrwały próbę czasu, takich jak dogłębna obrona i wielowarstwowe bezpieczeństwo. Bitdefender, z ponad dwudziestoletnim doświadczeniem, z powodzeniem zastosował to podejście, włączając sztuczną inteligencję jako solidny krok naprzód w naszym ciągłym zaangażowaniu w ochronę klientów poprzez solidne podstawy badawcze.

Jeśli chciałbyś poznać więcej sposobów na wykorzystanie sztucznej inteligencji w produktach Bitdefender z linii GravityZone, to odwiedź tę stronę.


Autor


Piotr R

Account Manager, od ponad roku pracuję w branży IT i od ponad 5 lat jestem copywriterem. Do moich zadań należy nawiązywanie współpracy partnerskich, pisanie i redagowanie tekstów, kontakt z dziennikarzami, tworzenie notatek prasowych oraz zamieszczanie ich na stronach internetowych i w naszych mediach społecznościowych. Wcześniej byłem przez kilka lat związany z branżą OZE oraz z technologiami telemetrycznymi i elektronicznymi. Interesuję się językoznawstwem, literaturą, grą na gitarze oraz branżą gier.

Zobacz posty autora


Artykuły które mogą Ci się spodobać

    Formularz kontaktowy

    Wybierz odpowiednią opcję aby przejść do formularza kontaktowego. Odpowiemy najszybciej jak to możliwe!

    klient-indywidualnyklient-biznesowyreseller

    Dane kontaktowe




    stalynowy