Niezdecydowanie dyrektorów ds. bezpieczeństwa informacji w sprawie chmur publicznych: do 2021 r. większość obciążeń będą realizować centra przetwarzania

Prywatne centra danych należące do przedsiębiorstw stanowią rdzeń infrastruktury IT, jednak są one coraz bardziej obciążone i już wkrótce mogą stanowić główny problem związany z wydajnością.

Jak wynika z badania firmy Bitdefender przeprowadzonego w 2017 r., 67,2% dyrektorów ds. bezpieczeństwa informacji korzystało już w swojej pracy z chmur hybrydowych do przechowywania danych, 64,8% stosowało sieci definiowane programowo, 62,8% polegało na wirtualizacji danych korporacyjnych, 57,2% stosowało pamięć masową definiowaną programowo, a 35,6% — infrastruktury hiperkonwergentne. Łącznie prawie 80% dyrektorów ankietowanych przez firmę Bitdefender pracowało nad transformacją posiadanych centrów przetwarzania, aby zwiększyć ich bezpieczeństwo, stopień ochrony danych i produktywność, a także ułatwić zarządzanie środowiskiem IT i obniżyć wydatki.

Zamiast jednak ułatwiać sobie życie, organizacje niechętnie myślą o całkowitym przejściu do chmury publicznej. Jak wynika z badania centrów danych prowadzonego w 2019 roku (przez ponad 3 miesiące) przez Uptime Institute wśród 1600 respondentów z różnych branż na świecie, ich zdaniem chmura publiczna nie zapewnia wyraźnej widoczności, przejrzystości i odpowiedzialności.

„Połowa osób wykorzystujących publiczną chmurę do zastosowań o znaczeniu strategicznym również jest zdania, że chmura ta nie zapewnia należytej widoczności” — czytamy w badaniu.

Firmy niechętnie myślą o przejściu do chmury ze względu na brak dostępu do odpowiednich informacji, w efekcie czego centra przetwarzania danych są zmuszone wykonywać wszystkie obciążenia. Jest to prawdopodobnie jeden z powodów, dla których przewiduje się, że do 2021 r. centra przetwarzania będą wciąż realizowały większość zadań informatycznych. To zdecydowanie za duże obciążenie, biorąc pod uwagę rosnący kryzys kadrowy i spadek jakości usług IT. Jak wynika z dokładniejszego raportu branżowego, 61% profesjonalistów nie jest w stanie zatrudnić wystarczającej liczby pracowników lub utrzymać takich, którzy byliby chętni związać się z zespołem na odpowiednio długi czas. Dla porównania, w ubiegłym roku odsetek ten wynosił 55%.

Nowoczesne centra danych są zmuszone pracować pod dużym obciążeniem, co czyni je podatnymi na przestoje, a tym samym prowadzi do znacznego pogorszenia jakości świadczonych usług. Na problem ten natrafiło w ciągu ostatnich 12 miesięcy 34% firm, a wszystkie problemy były związane z utratą zasilania lub przeciążeniami sieci. Zdaniem 10% przedstawicieli kadr kierowniczych przestoje centrów przetwarzania generują w ostatnim czasie straty przekraczające milion dolarów.

Zarządzanie obciążeniami, takimi jak uczenie maszynowe i sztuczna inteligencja, to ogromna odpowiedzialność, z którą poszczególne branże próbują radzić sobie na różne sposoby. Jak jednak czytamy w badaniu: „w ciągu ostatnich dwóch lat tempo poprawy efektywności energetycznej centrów danych zmalało, a w niektórych przypadkach efektywność ta zdołała nawet spaść”.

Wraz z wdrażaniem nowych technologii organizacje dążą do usuwania krytycznych wąskich gardeł — takich jak obciążenia, utrzymywanie kompetentnych pracowników oraz zachowanie ciągłości pracy i wydajności centrów przetwarzania danych.  Niezależnie od tego, czy napotykamy problemy z chłodzeniem lub dystrybucją energii, czy też borykamy się ze skutkami zmian klimatycznych, przezwyciężenie problemów związanych z infrastrukturą cyfrową będzie na pewno wymagało przeprowadzania bardziej szczegółowych przeglądów.

guest
0 komentarzy
Inline Feedbacks
View all comments