3
Spis treści
Kolokacja rośnie w tempie dwucyfrowymPaweł Olszynka, PMR
Hybrydowa lokalizacja danych
Internet Rzeczy – nowe wyzwania dla centrów danych
Jak zwiększyć dynamikę biznesu dzięki współpracy z zewnętrznym centrum danych?
Transformacja z tradycyjnego IT do modelu ITaaSRafał Roszak, Beyond.pl
Oszczędności przede wszystkimAdam Dyszkiewicz, Fujitsu
Współczesny biznes prowadzi przez centra danychDariusz Wichniewicz, ATM
Realna twierdza wirtualnych danych – bezpieczeństwo data center
Jak polscy dostawcy podchodzą do umów powierzenia?Beata Marek, Cyberlaw.pl
36
36
37
37
Redaktor naczelny: Robert Jesionek
Współpraca redakcyjna: Barbara Mejssner
Projekt graficzny i skład: Monika Bucoń
Przeczytaj na portalu it-manager.pl
Jak spać spokojnie, czyli nieprzerwana dostępność danych krok po kroku
7 grzechów głównych systemów backupu
Centra danych zgodne z Rekomendacją D
Onet w chmurze
5
9
11
13
19
23
27
34
Więcej niż dyskusja o IT
www.it-manager.pl/deloitte/cio-programme
© 2014 Deloitte Polska
5
Kolokacja rośnie w tempie dwucyfrowym
Paweł Olszynka, PMR
Wielkość rynku
Według szacunków PMR opartych o analizę ponad
100 komercyjnych centrów danych i serwerowni
w Polsce, w ciągu ostatnich pięciu lat rynek
kolokacji więcej niż podwoił swoją wartość,
a stopa wzrostu wynosiła zawsze kilkanaście
procent rocznie i była relatywnie odporna
na czynniki makroekonomiczne.
Na polskim rynku widoczny jest wyraźny trend
wzrostu powierzchni dostępnej pod usługi
kolokacji i hostingu. W zasadzie każdego roku
do dyspozycji klientów oddawane jest 4-7 tys. m²
nowej powierzchni serwerowej. Zasoby polskiego
rynku według szacunków PMR i stanu na koniec
2013 r. wyniosły blisko 90 tys. m² w ujęciu
brutto. Powierzchnia ta obejmuje oprócz komór
i pomieszczeń stricte pod szafy rack, również
miejsce zajmowane przez systemy klimatyzacji,
UPS-y i całą infrastrukturę niezbędną do
funkcjonowania obiektów, jednak bez biur
i powierzchni zapasowych.
Sukcesywnie wzrasta w Polsce liczba obiektów
z profesjonalnie przygotowaną infrastrukturą,
o wysokim poziomie bezpieczeństwa i redundancji.
Warto przypomnieć, że pierwsze, większe centra
przetwarzania danych powstały w Polsce 15 lat
temu (np. CPD CK ZETO w 1999 r. lub centra
GTS-u w Piasecznie i HP w Sękocinie dwa lata
później), jednak bardziej dynamiczny rozwój
rynku połączony z wolumenem sprzedaży przekraczającym próg 100 mln zł w skali roku przyszedł dopiero kilka lat później. Kolejna fala inwestycji to lata 2009–2011, kiedy na rynku pojawiły się nowe obiekty, a także rozbudowane i zmodernizowane centra obecnych największych graczy (np. ATM).
Główne cechy i trendy
Rynek centrów danych w Polsce w ostatnich 3-4 latach doświadczył dynamicznych zmian i nadal podąża za trendami światowymi. Obecnie główne trendy i cechy krajowego rynku CPD to:
•nadalwczesnestadiumrozwoju–ryneknie jest tak nasycony jak w Europie Zachodniej, popyt na usługi dotyczy głównie większych firm; rynek rozwija się bardziej dynamicznie
•dużerozproszenierynku;nadalistniejeduża liczba małych serwerowni oferujących możliwość wynajmu kilku szaf rack lub niewielkiej przestrzeni do adaptacji na cele kolokacji
•narynkudziałająkrajowioperatorzy; poza TelecityGroup brak dużych inwestorów zagranicznych
•noweserwerowniepowstająwoparciu o aktualne standardy międzynarodowe; wydajność stała się głównym aspektem
Polski rynek usług kolokacyjnych, mimo stopniowego wzrostu konkurencji i spadków cen,
utrzymuje dwucyfrowe tempo wzrostu, pozwalając zarobić dostawcom usług. W zakresie
trendów technologicznych i optymalizacji polski rynek podąża za tendencjami światowymi.
Koncentracja obiektów nadal występuje w Warszawie, choć nie brakuje nowych inwestycji
w innych częściach kraju.
6
branym pod uwagę – nakłady inwestycyjne
mogą być wyższe w przypadku zmniejszenia
kosztów operacyjnych, ważne są również niskie
prognozowane wydatki na infrastrukturę ICT
oraz wydajność zużycia energii
•skalowalnośćimożliwośćadaptacjiwprzyszłości
są celami branymi pod uwagę przy większości
projektów (w tym między innymi działka
umożliwiająca budowę kolejnego obiektu
w tej samej lokalizacji)
•przybywaobiektówneutralnychoperatorsko
•największaaktywnośćnarynkuwidoczna
jest w Warszawie, jednak powstaje coraz więcej
relatywnie dużych obiektów poza centrum kraju
•winwestycjewnowecentradanychwkraju
angażują się coraz wyraźniej parki technologiczne
i spółki zlokalizowane w specjalnych strefach
ekonomicznych na terenie całego kraju –
zachętą są wysokie dopłaty z funduszy UE
na realizację takich inwestycji
•sukcesywniespadającenykolokacji,choć
dotyczy to raczej mniejszych uczestników
rynku, bądź operatorów chcących podnieść
szybko poziom zajętości swoich obiektów
•pomimowiększejskłonnościdowykorzystania
usług oferowanych w centrach danych
i wzrostu popularności outsourcingu IT
duże przedsiębiorstwa nadal preferują
budowę serwerowni na własne potrzeby.
Źródło: PMR, 2014
Odsetek największych komercyjnych centrów przetwarzaniach danych w Polsce posiadających wybrane rozwiązania (%), styczeń 2014
N=25
Dedykowana ochrona fizyczna 24/7
Klimatyzacja precyzyjna
Podniesiona podłoga techniczna
CCTV
System gaszenia gazem
System wczesnego wykrywania dymu
0% 20% 40% 60% 80% 100%
88%
92%
92%
100%
100%
100%
Optymalizacja kosztów
Koszty energii elektrycznej generowane przez
systemy zasilania i chłodzenia są głównym
elementem składowym całkowitego kosztu
utrzymania centrum przetwarzania danych.
Aby zwiększyć sprawność energetyczną swoich
data centre, firmy modernizują je lub budują nowe,
wyposażając w bardziej nowoczesne rozwiązania.
Szczególnie najwięksi dostawcy kładą nacisk na
odpowiednio wysoki poziom sprawności zasilaczy
7
UPS i przetwornic zapewniających zmniejszenie poboru energii. Dodatkowy element, który wykorzystują operatorzy, to systemy pozwalające na szczegółową analizę termiczną poszczególnych szaf w serwerowni, co pozwala na rozmieszczenie urządzeń w taki sposób, by zapewnić im uzyskanie optymalnych warunków chłodzenia.
Coraz powszechniejsze są systemy tzw. free coolingu, pozwalające na wykorzystanie w procesie chłodzenia temperatur panujących na zewnątrz serwerowni. Innymi słowy, free cooling pozwala na schłodzenie „wody lodowej” bez angażowania sprężarek chłodniczych. Oszczędności w tym przypadku mogą wahać się od 20 do nawet 75%. Warto podkreślić, że free cooling włącza się już przy temperaturze kilkunastu stopni powyżej zera, co w zasadzie pozwala na jego wykorzystanie – w mniejszym lub większym zakresie – niemalże
w ciągu całego roku. Doświadczenia operatorów pokazują, że w Polsce występuje przeciętnie 5-10 nocy rocznie (w porze letniej), kiedy wykorzystanie free coolingu nie jest w ogóle możliwe.
W polskich realiach, mimo przewidywań sprzed kilku lat, nie następuje natomiast dynamiczny wzrost skali gęstości upakowania serwerów, co przekładałoby się na zwiększenie poboru mocy pojedynczej szafy rack, choć niewielkie ruchy w tym zakresie są stopniowo zauważalne. Z naszych obserwacji w wizytowanych obiektach wynika, że o ile można w kraju znaleźć obiekty, gdzie faktyczny pobór mocy na wybrane szafy przekracza 12 kW, a maksymalny deklarowany osiąga nawet 25 kW, o tyle w praktyce przeciętny pobór mocy w obiektach jest kilkakrotnie niższy i waha się w okolicach 3-3,5 kW w przypadku obiektów mniejszych i 4-5 kW w przypadku obiektów większych. Czołowi operatorzy centrów danych najczęściej posiadają infrastrukturę, instalacje i elementy klimatyzacji precyzyjnej pozwalające na obsługiwanie większej gęstości na szafę, jednak faktycznie rzadko występuje taka konieczność. Wynika to z prostej kalkulacji, że schłodzenie szafy o wyższej gęstości zwykle wiąże się ze skokowo rosnącymi wymaganiami stawianymi systemom zasilania i chłodzenia, co wprost przekłada się na wyższe koszty, więc firmy rezygnują z tego rodzaju instalacji na rzecz mniejszej gęstości.
Struktura geograficzna
Znakomita większość komercyjnych serwerowni w Polsce to obiekty małe o powierzchni poniżej 200 m². Jeśli chodzi o największe obiekty, to w przypadku powierzchni netto w styczniu 2014 r. nie istniał w Polsce komercyjny obiekt, którego metraż pod szafy przekraczałby 4 000 m², a w przedziale 2 500-4 000 m² funkcjonowały – podobnie jak przed rokiem – trzy obiekty. W przypadku doliczenia do powierzchni pod same
Struktura geograficzna 25 największych komercyjnych centrów przetwarzania danych w Polsce, styczeń 2014
Warszawa14
Kraków4
Łódź3
Toruń2
Poznań2
Źródło: PMR, 2014
N=25
8
Paweł Olszynka
Autor kieruje działem analiz rynku ICT w firmie PMR. Materiał zawiera dane z raportu PMR „Rynek centrów danych w Polsce 2014”, który powstał przede wszystkim w oparciu o bezpośredni kontakt z uczestnikami rynku i wizytacje ich obiektów data centrowych.
serwery również pomieszczeń towarzyszących okaże się, że obiektów o powierzchni ponad 4 000 m² jest cztery, podczas gdy tych w przedziale 2 500-4 000 m² – dziewięć.
Warszawa odpowiada za ponad połowę całkowitej komercyjnej powierzchni serwerowej w Polsce, a pozostałe dwie główne lokalizacje to Kraków (wraz z pobliską Skawiną) i Łódź. Te trzy miasta reprezentują ok. 80% rynku w Polsce. Niektórzy dostawcy, z którymi rozmawialiśmy, twierdzą, że proporcje są jeszcze wyższe, a 8 na 10 zapytań o usługi oferowane w komercyjnych centrach danych dotyczy Warszawy.
Analiza 25 lokalizacji wiodących obiektów potwierdza powyższy trend. Teoretycznie
wszyscy zgadzają się, że położenie geograficzne
obiektu w dzisiejszych czasach nie ma większego
znaczenia. Mimo wszystko, nadal dla większości
klientów zlokalizowanie zasobów w serwerowni
w innym mieście niż główna siedziba czy
oddział w Polsce nie jest powszechną praktyką.
Głównym argumentem przemawiającym
za wyborem serwerowni w innym mieście
jest najczęściej aspekt bezpieczeństwa i chęć
posiadania centrum zapasowego czy zasobów
serwerowych w alternatywnych lokalizacjach.
Z drugiej strony, inne lokalizacje powstają
nierzadko dzięki możliwości uzyskania
dofinansowania unijnego, które w obszarach
o największej koncentracji biznesu, dużo rzadziej
jest obecnie możliwe.
9
Hybrydowa lokalizacja danych
W sierpniu 2014 na konferencjach w Sydney, Londynie i Dubaju, zorganizowanych przez firmę badawczą Gartner, dyskutowano o kwestiach związanych z bezpieczeństwem informacji i zarządzaniem ryzykiem. Analitycy Gartnera przedstawili swój pogląd na problem związany z fizyczną lokalizacją danych.
Chociaż fizyczna lokalizacja danych jest wciąż liczącą się kwestią, jednak według Gartnera, będzie ona stawała się coraz mniej istotna, gdyż jest coraz trudniejsza do zrealizowania. Do 2020 roku w większości organizacji trudno będzie określić lokalizację przetwarzanych i przechowywanych danych, gdyż będzie to kombinacją różnych typów lokalizacji: prawnych, politycznych i logicznych.
Według Carstena Caspera, wiceprezesa firmy badawczej Gartner, w ciągu ostatnich 12 miesięcy organizacje coraz częściej dyskutują na temat problemów związanych z lokalizacją i suwerennością danych. Przyczynkiem do tych dyskusji było ujawnienie przez Edwarda Snowdena informacji dotyczących inwigilacji Internetu przez NSA (National Security Agency). „Liderzy IT się wplątali w dyskusję na temat umiejscowienia danych na różnych poziomach i z różnymi interesariuszami, takimi jak doradcy prawni, klienci, specjaliści od tworzenia regulacji, przedstawiciele pracowników, zarządy i opinia publiczna” – mówił Casper. Zarządy wraz z działami IT muszą podejmować decyzje, gdzie i jak przechowywać dane i rozważać ryzyko związane z nieścisłościami prawnymi, karami finansowymi, ewentualnymi publicznymi skandalami, niezadowoleniem pracowników lub stratą udziałów w rynku z powodu braku innowacji, lub przekroczonych wydatków na IT.
Cztery typy lokalizacji danych
1. Lokalizacja fizyczna:
Fizyczna bliskość utożsamiana była zwykle
z fizyczną kontrolą nad danymi i ich
bezpieczeństwem. Chociaż każdy wie, że dane
lokalnie składowane mogą być dostępne zdalnie,
pragnienie fizycznej kontroli wciąż istnieje,
zwłaszcza wśród twórców regulacji prawnych.
Gartner radzi organizacjom nie odrzucać obaw
związanych z fizyczną lokalizacją, ale równoważyć
je wskazując inne typy ryzyka.
2. Lokalizacja prawna
Według Gartnera wielu profesjonalistów IT nie
jest zorientowanych w regulacjach prawnych,
dotyczących lokalizacji danych, a lokalizacja
prawna jest określona przez podmioty prawne,
które sprawują kontrolę nad danymi. Mogą to
być podmioty prawne, które przetwarzają dane
w imieniu tych pierwszych (jak np. dostawcy
Internetu) oraz podmioty prawne trzeciej strony,
które wspierają te drugie – np. centra danych
wynajęte w Indiach). „Twierdzenia w stylu:
utrzymywanie danych poza krajem jest nielegalne,
są często interpretacją języka prawnego, któremu
daleko do jasności” – mówi Casper. Każda
organizacja musi zdecydować, czy akceptuje
taką interpretację.
3. Lokalizacja polityczna
Takie czynniki jak egzekwowanie prawa, używanie
taniej siły roboczej w innych krajach, co osłabia
lokalny rynek pracy, czy pytania o politykę
międzynarodową są najważniejsze dla jednostek
Jeśli niemiecka firma podpisuje umowę na przechowywanie danych z irlandzkim oddziałem
amerykańskiego dostawcy chmury, który dane te będzie fizycznie składował w Indiach,
to gdzie one są i do kogo faktycznie należą?
10
z sektora publicznego, organizacji pozarządowych oraz przedsiębiorstw, które obsługują miliony konsumentów lub których reputacja jest już nadwyrężona. „Jeżeli znajdujesz się w jednej z tych kategorii, musisz brać pod uwagę doniesienia mediów na temat bezpieczeństwa w trosce o przechowywane dane – powiedział Casper. Jeśli istnieje publiczne oburzenie dotyczące przechowywania danych za granicą, jest niewielkie prawdopodobieństwo, że klienci zmienią swoje nastawienie”.
4. Lokalizacja logiczna
Największy wpływ na przetwarzanie danych ma zwykle ten, kto ma do nich dostęp.
Na przykład: niemiecka firma podpisuje kontrakt z irlandzkim oddziałem amerykańskiego dostawcy chmury całkowicie ufając mu, że backup danych
będzie fizycznie przechowywany w data center
w Indiach. Chociaż więc prawna lokalizacja danych
jest w Irlandii, polityczna lokalizacja w USA,
fizyczna lokalizacja w Indiach, to logicznie dane
wciąż są w Niemczech. Z tych powodów wszystkie
dane przesyłane i wszystkie dane przechowywane
(w Indiach) powinny być zapobiegawczo
szyfrowane z kluczem do ich odszyfrowania
znajdującym się w Niemczech.
„Przyszłość lokalizacji danych będzie hybrydowa –
mówi Casper. – Organizacje będą używały
różnorodnych ich modeli, tak jak i różnorodnych
modeli dostarczania usług. Szefowie działów IT
muszą na ten temat rozmawiać i podejmować
decyzje dotyczące sposobu i miejsca
przechowywania danych na podstawie informacji
uzyskanych od zarządów, działów bezpieczeństwa
i specjalistów od ochrony danych”.
Opr. Barbara Mejssner na podstawie: „The Snowden Effect: Data Location Matters”, dostępny na witrynie Gartnera: http://www.gartner.com/doc/2724017
11
Internet Rzeczy – nowe wyzwania dla centrów danych
Podczas szczytu „Infrastruktura i działanie
centrów danych”, zorganizowanego przez firmę
badawczą Gartner w Sydney, w maju 2014 roku,
dyskutowano między innymi o wpływie, jaki
Internet Rzeczy będzie miał na infrastrukturę
centrów danych i oferowane przez nie usługi.
Gartner prognozuje, że Internet Rzeczy będzie
do 2020 roku obejmował 26 mld różnego
typu urządzeń, a dostawcy produktów
i usług z nim związanych odnotują przychody
przekraczające 300 mld USD. Internet Rzeczy
spowoduje zmiany na rynku data centers,
związane z technologią, ale też z nowymi
modelami marketingowymi i sprzedażowymi.
„Urządzenia wchodzące w skład Internetu
Rzeczy wygenerują ogromną ilość danych,
które trzeba będzie przetwarzać i analizować
w czasie rzeczywistym – mówi Fabrizio
Biscotti, dyrektor badań w firmie Gartner.
Wzrost informacji przetwarzanych w data
center będzie je obciążać, stawiając przed nimi
nowe wyzwania w dziedzinie bezpieczeństwa,
wydolności sieci i analityki”.
Oto wyzwania, z jakimi według Gartnera zmierzą się centra danych w epoce Internetu Rzeczy:
Bezpieczeństwo
Wzrastająca cyfryzacja i automatyzacja coraz
większej liczby urządzeń rozmieszczonych
w różnych środowiskach stawia przed
organizacjami z wielu obszarów gospodarki
nowe wyzwania w zakresie bezpieczeństwa.
Przedsiębiorstwo
Ogromna ilość danych generowanych przez
miliony urządzeń drastycznie skomplikuje
kwestie bezpieczeństwa. Będzie to miało wpływ
na rosnące wymagania co do dostępności
informacji i prowadzenia procesów biznesowych
w czasie rzeczywistym.
Prywatność klienta
Tak jak to ma już miejsce w przypadku
inteligentnych urządzeń pomiarowych i coraz
bardziej zdygitalizowanych samochodów, olbrzymia
ilość przesyłanych danych będzie pochodziła
z urządzeń osobistych, które, jeśli nie będą należycie
chronione, mogą spowodować wzrost naruszeń
bezpieczeństwa. Jest to szczególne wyzwanie,
bo informacja generowana przez IR jest kluczem
do lepszych usług, warto więc, by mogły one
przypływać od klienta, bez narażania go na kłopoty.
Dane
Wpływ Internetu Rzeczy na magazynowanie
danych jest dwojaki, w zależności od tego,
jakie dane mają być składowane: dane osobowe
(generowane przez klienta), czy big data
(wytwarzane przez przedsiębiorstwa).
Jeśli używane przez konsumentów urządzenia
i aplikacje gromadzą wiedzę o ich zachowaniach,
to generują one bardzo istotne dane.
Zarządzanie przechowywaniem danych
Internet Rzeczy ma wpływ na infrastrukturę
do przechowywania danych, gdyż wiąże się
ze wzrostem wymagań wobec wydajności
Ilość danych generowanych przez Internet Rzeczy stawia przed centrami danych wyzwania
związane z bezpieczeństwem, przepustowością sieci, pojemnością pamięci masowych
i selektywnym backupem.
12
pamięci masowych. Obecnie trzeba skupić się na możliwościach pojemności pamięci tak samo pilnie, jak nad tym, czy biznes może zbierać i używać danych IR w sposób efektywny kosztowo.
Technologie serwerowe
Wpływ Internetu Rzeczy na rynek serwerów będzie wynikał ze zwiększenia inwestycji w serwery w organizacjach, gdzie będzie on mógł przynieść korzyści i znaczącą wartość dodaną.
Data Center Network
Istniejące w centrach danych sieci WAN są dopasowane do wymagań dotyczących przepustowości sieci generowanych przez interakcje ludzi i aplikacji. IR zmienia ten model transferując ogromną ilość danych z małych sensorów do data center i dramatycznie zwiększając zapotrzebowanie na przepustowość pasma.
„Ogrom połączeń sieciowych i przyrost informacji związany z Internetem Rzeczy będzie przyspieszać rozwój centrów danych i jednocześnie wymagać od dostawców stosowania efektywnych platform do zarządzania danymi. Inernet Rzeczy to gigantyczna ilość danych przychodzących z różnych źródeł i różnych miejsc wspólnie zbieranych. Transfer wszystkich tych danych do pojedynczej lokalizacji w celu ich przetworzenia
nie będzie ani technologicznie wykonalny, ani ekonomicznie opłacalny – mówi Joe Skorupa, wiceprezes w Gartner Inc – Ostatnie trendy zmierzające do centralizacji aplikacji w celu redukcji kosztów i zwiększenia bezpieczeństwa nie są kompatybilne z Internetem Rzeczy. Organizacje będą musiały agregować dane w mniejszych data centers, gdzie będzie się dokonywać ich wstępne przetwarzanie. Istotne dane wyłowione z tej całości będą następnie przekazywane do centralnych data centers do dalszego przetwarzania”.
Ponadto, tworzenie kopii zapasowych tak wielkich wolumenów danych, będzie problemem trudnym do rozwiązania ze względu na różnorodność źródeł ich pochodzenia, ale także przepustowość sieci i pojemność pamięci masowych. Organizacje będą musiały robić selektywny backup danych, wybierać te, co do których mają przekonanie, że będą one dostarczały wartość dla biznesu. To przesiewanie i sortowanie będzie oczywiście generowało dodatkowe obciążenia w data center „zjadając” pamięć i zasoby sieci.
Wzrasta konieczność coraz lepszego zarządzania informacją. Operatorzy i dostawcy usług centrów danych będą musieli korzystać z zaawansowanych platform do zarządzania infrastrukturą data cneter (data center infrastructure management – DCIM).
Opr. Barbara Mejssner na podstawie: „The Impact of the Internet of Things on Data Centers”. Raport dostepny na stronie http://www.gartner.com/doc/2672920.
13
Jak zwiększyć dynamikę biznesu dzięki współpracy z zewnętrznym centrum danych? Transformacja z tradycyjnego IT do modelu ITaaS
Rafał Roszak, Beyond.pl
Firmy stawiają na usługi data center
Zmiany na rynku serwerów pokrywają się ze stałym
i dynamicznym wzrostem wykorzystania usług data
center. Badania BroadGroup za 2014 r. wskazują
na szybki rozwój globalnego rynku poza ośrodkami
Tier1 (US, UK, Europa Zachodnia) ze szczególnym
naciskiem na dostawców w Polsce, Rosji i Turcji.
Wśród tych krajów Polska wyróżnia się największą
dynamiką i potencjałem. Za utrzymaniem tego
trendu przemawia wiele czynników, wśród których
wymienić można m.in.: rozwój innowacyjnej
i opartej o nowoczesne technologie gospodarki,
dynamiczny wzrost MŚP oraz poszukiwanie nowych
zakresów usług, wykorzystujących urządzenia
mobilne, w tym przede wszystkim trend BYOD
i Internet of Things. Dodatkowo zaintersowanie
outsroucingiem usług infrastruktury IT wspomaga
dążenie przedsiębiorstw do optymalizacji kosztów
działania, wsparte przez rozpowszechnienie
szerokopasmowego dostępu do Sieci, globalizację
działań i wzrost kompetencji pracowników.
Szybkość reagowania na zmiany, innowacyjny
rozwój technologiczny i nieustanna optymalizacja
środowiska IT, to obecnie jedyna droga do osiągnięcia sukcesu, bez względu na branżę, w której działa przedsiębiorstwo. W efekcie dynamicznego wzrostu wykorzystania nowych technologii firmy stają przed pytaniem „Jak zapewnić sobie przestrzeń czy moc obliczeniową dla utrzymania i przetwarzania danych?”. Coraz częściej popartą rachunkiem zysków i kosztów odpowiedzią jest współpraca z profesjonalnym data center. W rezultacie polski rynek centrum danych od kilku lat sukcesywnie rośnie. Jak wynika z raportu firmy badawczej PMR, w ubiegłym roku (2013) wartość polskiego rynku data center przekroczyła 1 mld zł. Wzrost popytu pociąga za sobą powstawanie kolejnych inwestycji i – co najważniejsze z punktu widzenia klienta – rozwój oferty usług.
Wszystkie te elementy wpływają na zwiększenie wykorzystywania nowoczesnych technologii, tworzenie, przetwarzanie i przechowywanie danych i w konsekwencji wzrost podaży na usługi data center. Idzie ono w parze z rozwojem nowego modelu dostarczania moc obliczeniowej jakim jest cloud computing. Chmura obliczeniowa – zarówno
Prognozy producentów sprzętu IT przygotowane na 2014 r. wskazywały, że do 30% wszystkich
fizycznych serwerów zostanie zamówione przez centra danych i dostawców usług w chmurze
obliczeniowej. Do roku 2017 firmy z sektora data center i cloud computing mają stanowić połowę
rynku nabywców sprzętu. Tymczasem CIO i CTO firm skierują swoją uwagę w kierunku modelu ITaaS.
Jakie korzyści daje taka zmiana? Jak przygotować do niej swoją firmę? Czym kierować się podczas
wyboru Partnera i zleceniobiorcy?
14
w modelu Infrastructure as a Service jak i Platform as a Service i Software as a Service – jest najszybciej rozwijającym się sektorem branży IT. Polski rynek w tym zakresie w 2012 roku wart był ponad 216 mln zł a prognozy na 2014 mówiły o wzroście w całym bieżącym roku o 26,4 procent, czyli do poziomu około 260 mln zł.
Przy tak oczywistym trendzie warto przenalizować czynniki, które skłaniają firmy do korzystania z zewnętrznych centrów danych.
Za wzrostem zainteresowania zewnętrznym centrum danych przemawiają biznesowe atuty takiego rozwiązania.
Ankieta przeprowadzona wśród CEO i CIO przez dziennik Wall Street Journal w czerwcu 2014 r. wskazuje, że w ponad 60% amerykańskich przedsiębiorstw zarządzanie infrastrukturą IT i administracja systemami jest najczęściej outsourcowną aktywnością.
W efekcie, firmy które zdecydowały się na wdrożenie tego modelu działania odnotowują średnioroczne oszczędności na poziomie 12-17%, a 37% z pośród nich deklaruje, iż uwolnienie zasobów dzięki outsourcingowi pozwoliło na szybszy rozwój nowych produktów i ekspansję zagraniczną.
Najważniejsze wskazywane przez ankietowanych zalety wykorzystania zewnętrznego centrum danych to:
•optymalizacjakosztów
•zwiększeniezwinnościdziałuIT
•zmianakosztówinwestycyjnychnaoperacyjne
•zwiększeniebezpieczeństwaistabilności zasobów IT
•zwiększeniezwinnościdziałuIT
•koncentracjanacelachstrategicznychfirmy
•rozwójknowhowidostępdonajnowszej technologii.
Decydując się na zewnętrzne centrum danych warto zweryfikować dostępne oferty i postawić na współpracę z najlepszym partnerem. Jakimi kryteriami się posłużyć?
1. Neutralność telekomunikacyjna
Pierwsze co należy zweryfikować, to czy data center
jest neutralne telekomunikacyjnie. Takie centra
danych zapewniają biznesowe bezpieczeństwo
wynikające z braku „preferowanego” operatora.
Dysponując rozbudowaną ofertą łączy gwarantują
technologiczne zasoby pozwalające na swobodny
dostęp do Internetu. Ważna jest też kwestia
przyłączy – by sięgnąć do przykładu Beyond.pl
Data Center 1, pierwszego polskiego neutralnego
telekomunikacyjnie centrum danych – przyłącza
poprowadzone są z czterech różnych stron
budynku. To eliminuje ryzyko utraty łączności
w wypadkach losowych czy – obecnej
w branżowych anegdotach – koparki.
2. Rozbudowany i zduplikowany system zabezpieczeń
W profesjonalnym centrum danych stabilność
i bezpieczeństwo utrzymania infrastruktury IT
zabezpiecza się poprzez eliminacje Pojedynczych
Punktów Krytycznych (Single Point of Failrure –
SpoF). Gwarantują to wdrożone rozwiązania
w zakresie czterech filarów bezpieczeństwa:
•bezpieczeństwofizyczne
•bezpieczeństwoprzeciwpożarowe
•bezpieczeństwośrodowiska
•bezpieczeństwozasilania.
Powyższe elementy, zapewniające stabilność
przechowywania i przetwarzania danych dla
poszczególnych elementów infrastruktury, najlepiej
przeanalizować na przykładzie centrum danych
Beyond.pl z Poznania, który od 2005 r. zapewnia
usługi data center swoim klientom.
15
O bezpieczeństwo obiektu dba wielostrefowa
kontrola dostępu wraz z biometryką, sprawdzającą
zgodność podanego kodu dostępu. Dochodzi
do tego system wykrywania otwartych drzwi,
monitoring CCTV i systemy monitoringu,
nad którymi czuwają całodobowo dwa niezależne
zespoły utrzymania (infrastruktura i technologia)
oraz licencjonowana firma ochrony.
Bezpieczeństwo przeciwpożarowe zapewnia
innowacyjny system wczesnej detekcji VESDA
sprzężony z systemem monitoringu termowizyjnego.
Centralny analizator bada, a przeciwdziałać
ewentualnym ogniskom zapalnym ma system
tłumienia ognia dwustrefowo – pod i nad
podłogą techniczną – wraz z instalacją
gaszącą certyfikowaną do użytku w UE,
opartą na gazie obojętnym i dedykowaną
do użytku w pomieszczeniach z wrażliwym
sprzętem elektronicznym.
Bezpieczeństwo środowiska – kluczowe
dla wrażliwego sprzętu IT jaki znajduje się
w ramach centrum danych – to wysokowydajny
system klimatyzacji precyzyjnej wraz z dwoma
niezależnymi torami wytwarzania i dystrybucji
chłodu. Za ich utrzymanie odpowiadają dwa
niezależne zestawy agregatów chłodniczych
wraz z zapasowym systemem chłodzącym.
Całość podlega stałemu monitoringowi i kontroli
dystrybucji chłodu oraz temperatury i wilgotności.
Dodatkowo, w ramach poszczególnych
pomieszczeń serwerowych wytyczone są ciepłe
i zimne korytarze, cyklicznie kontrolowane
kamerami termowizyjnymi.
Last but not least, system bezpieczeństwa
zasilania, za który odpowiadją systemy dostawy
zasilania, czyli dwa niezależne przyłącza
energetyczne, ponad 20 ton cyklicznie
testowanych i wymienianych akumulatorów
dedykowanych do użycia w środowisku
data center, dwie niezależne rozdzielnie
z dedykowanymi systemami UPS oraz niezależne
trasy kablowe oraz listwy zasilające.
Istotnym ogniwem tego systemu jest
profesjonalny agregat prądotwórczy zlokalizowany
w dedykowanym pomieszczeniu. Stałą pracę
zapewniają mu zbiorniki paliwa z zapasem
na 36h wraz z możliwość tankowania
z zewnętrznych cystern w czasie pracy.
Wszystkie powyższe rozwiązania systemu,
zapewniające bezpieczeństwo zasilania,
podlegają całodobowemu monitoringowi
i cyklicznym procedurom testowania.
3. Pod ciągłą kontrolą
Elementem spinającym to wszystko jest
wielowarstwowa ochrona fizyczna. Dość
powiedzieć, iż nowoczesne centra danych,
nie bez kozery nazywane są informatycznymi
bunkrami. Profesjonalny obiekt cechuje nie
tylko stała ochrona fizyczna ale i obecność
ekip technicznych. 24 godziny na dobę, 7 dni
w tygodniu, 365 dni w roku na terenie centrum
danych przebywa licencjonowana straż obiektu,
zespół administratorów monitorujący pracę
infrastruktury IT oraz zespoły techniczne,
gotowe by przeprowadzić zarówno prace zlecone
przez klientów (tzw. remote hands) jak i prace
związane z utrzymaniem infrastruktury samego
centrum danych.
Profesjonalne centra danych to pełne portfolio usług, z których korzystać może przedsiębiorstwo
Obecnie data center nie ograniczają się jedynie do
wynajmu powierzchni dla utrzymania sprzętu IT.
Przykładem tego jest choćby poznańskie centrum
danych Beyond.pl, które łączy bezpieczne
zaplecze technologiczne, szerokie portfolio
kompetencji zespołu i najnowsze oprogramowanie
w harmonijną całość. Wspiera ją neutralność
16
telekomunikacyjna zapewniająca doskonałą łączność globalną i korzystną ofertę biznesową.
Efektem jest szeroki wachlarz oferty, która pozwala dopasować rozwiązanie do potrzeb klienta. Dzięki temu z oferty centrum danych skorzystać mogą firmy, które szukają zarówno oferty kolokacji, dzierżawy sprzętu, usług cloud computingu, jak i administracji systemami, aplikacjami i bazami danych.
Chmura obliczeniowa jako usługa centrum danych
Coraz większe znaczenie nabierają w ofercie data center usługi chmury obliczeniowej, zarówno w modelu chmury prywatnej jak i publicznej. Zmiana modelu IT to również wzrost oczekiwań co do możliwość centrów danych – wiele z obecnych ośrodków nie jest dostosowana do dynamicznego wzrostu liczby wirtualnych maszyn tworzonych na fizycznych zasobach, gdyż wymaga to odpowiedniej gęstości zasilania i warunków klimatycznych oraz przede wszystkim – wsparcia administracyjnego i zarządczego, koniecznego dla świadczenia odpowiedniego poziomu usług. Wiąże się to, po stronie centrów danych, z koniecznością zarówno własnych narzędzi, jak i wyzwaniami HR oraz zmianą strategii firmy. Zmiana jest jednak nieuchronna – nowy model dostarczenia mocy obliczeniowej jakim jest cloud computing na trwałe wpisał się już w rozwiązania rynkowe. Jak podaje wyniki badań przeprowadzonych przez Idea Bank i TaxCare, dwie trzecie ankietowanych firm wskazuje chmurę jako źródło obniżenia kosztów funkcjonowania przedsiębiorstwa. Jednocześnie według Komisji Europejskiej przyjęcie tego modelu działania zapewnia redukcję kosztów prowadzenia działalności średnio o 10-20%.
Zmiany na rynku usług IT jakie generuje chmura obliczeniowa najlepiej pokazuje case Centralnej Agencji Wywiadowczej. Latem 2012 ta rządowa
agencja ogłosiła przetarg na nową infrastrukturę, w którym pokonała IBM i w marcu 2013 r. podpisała warty 600 mln $ kontrakt na 10 lat. Wybór wzbudził wiele pytań, należy go jednak posumować jednoznacznie: zwyciężył model rzeczywistej elastyczności i optymalizacji kosztów.
Za wzrostem zainteresowania usługą mocy obliczeniowej przemawiają biznesowe atuty takiego rozwiązania. Serwery w chmurze dostarczanej przez profesjonalne centrum danych to przede wszystkim optymalizacja kosztów działania firmy. Przedsiębiorstwo nie musi utrzymywać własnej infrastruktury, nabywać jej, serwisować i wymieniać wraz z rozwojem technologii. Kolejna korzyść to znacznie większa szybkość wdrożenia (time to market). Dzięki zasobom centrum danych dostawca chmury obliczeniowej może udostępnić dowolna liczbę serwerów i platform na żądanie. Na konkurencyjnym rynku gospodarczym, taka elastyczność zasobów IT to strategiczna przewaga, umożliwiającą szybsze wdrożenie nowej usługi, zmian w portfolio produktów czy błyskawiczną reakcję marketingową na czynniki zewnętrzne.
Ogromną przewagą serwerów w chmurze w stosunku do tradycyjnej infrastruktury fizycznej jest również możliwość skalowania wykorzystywanej mocy. Zwalnia to firmy z konieczności estymowania koniecznej infrastruktury i pozwala na dokładne dopasowanie mocy obliczeniowej do potrzeb.
Prywatna, publiczna czy hybrydowa? Profesjonalne data center dopasowują ofertę dla potrzeb odbiorcy
Wybierając chmurę obliczeniową w profesjonalnym centrum danych, przedsiębiorstwo korzysta z możliwości wyboru rozwiązania, które będzie optymalnie dopasowane do jego potrzeb. Coraz popularniejszym rozwiązaniem jest wybór
17
infrastruktury hybrydowej, łączącej zalety elastyczności i skalowalność chmury publicznej z bezpieczeństwem i dedykowanymi zasobami chmury prywatnej. Ten optymalny dla rozległych systemów czy ściśle regulowanych sektorów jak finanse, ubezpieczenia czy medycyna model przynosi wiele korzyści ale wymaga starannego wyboru Partnera. Sprawdzając jego kompetencje należy bowiem zweryfikować nie tylko kwestie infrastruktury własnego data center, ale i technologii umożliwiających uruchomienie infrastruktury na żądanie w postaci serwerów
w chmurze i zaprojektowanie architektury łączącej oba te klastry.
Kolejne case studies wdrożeń chmury obliczeniowej i upowszechnienie tej usługi w ofercie centrum danych na polskim rynku wskazują na jej postępujący wzrost znaczenia. Trend ten przekłada się na wyniki całej branży, stąd nie jest zaskoczeniem wynik globalnych badań, które wskazują, że zainteresowanie chmurą obliczeniową jako modele infrastruktury wśród CIO wzrosło z 30% w roku 2009 do 64% w roku obecnym.
BEZPIECZNE I STABILNE CENTRA DANYCH
Centra danych Beyond.pl wyróżnia:
•wykluczeniePojedynczegoPunktuKrytycznego
•bezpieczeństwoipewnośćeksploatacjizgodneznajwyższymistandardami i potwierdzone wysokim SLA
•bezpieczeństwozasilania,chłodzeniaikontroliśrodowiskaorazinnowacyjnesystemy przeciwpożarowe dedykowane dla zastosowania w środowisku IT
Lider usług chmury obliczeniowej dla biznesu
•chmuraprywatnaBeyond.pl:infrastrukturadedykowana,opartaowybranątechnologię
•chmurapublicznae24cloud–zasobyITnażądanie,rozproszonegeograficznie i dowolnie skalowane
•chmurahybrydowa–połączeniezaletinfrastrukturydedykowanejzelastycznością chmury publicznej
18
Rafał Roszak
Dyrektor marketingu Beyond.pl
Od ponad 15 lat związany z kształtowaniem marek, komunikacją i rynkiem usług.
Absolwent UAM Poznań i studiów „Design Managment” SWPS. Członek American Marketing Association. Twórca i redaktor bloga chmura.pb.pl poświęconego biznesowej perspektywie chmur obliczeniowych, szkoleniowiec, wykładowca uczelni wyższych. Pasjonuje się design management i service design, w usługach IT poszukuje korzyści dla strategii rozwoju firmy i wartości z perspektywy klienta.
Doskonała łączność
Beyond.pl to pierwsze polskie neutralne telekomunikacyjnie centrum danych:
•operatorzyklasymiędzynarodowejTier1:Cogent,Level3,RETN,TeliaSonera
•wszyscykluczowioperatorzykrajowiiregionalni:Netia,Orange(TPSA),T-Mobile,Atman
•możliwośćpołączeniadogłównychwęzłówtelekomunikacyjnych:AMS-IX,DE-CIX,EPIX, KIX,LINX,MSK-IX,NetIX,
19
Oszczędności przede wszystkim
Adam Dyszkiewicz, Fujitsu
Gdzie szukać oszczędności? Wymiana starszych
maszyn i wirtualizacja systemów na nich
działających może przynieść znaczące oszczędności
w zakresie obsługi serwisowej, zużycia energii
elektrycznej i zajętości miejsca w serwerowni.
Ekonomiczne i wydajne
Nowe serwery Fujitsu PRIMERGY są bardziej
energooszczędne i pozwalają nawet o 50%
zmniejszyć koszty związane z chłodzeniem
i zasilaniem względem poprzedniej generacji
tych maszyn. Tymczasem np. eksperci Gartnera
przewidują, że za kilka lat koszty energii będą
pochłaniać nawet 1/2 całkowitych budżetów IT firm
średniej i dużej wielkości. Jednocześnie kilkuletnie
serwery oferują ułamek mocy i wydajności
obecnych konstrukcji PRIMERGY z procesorami Intel
XeonE52600v3.Nadodatkoweoszczędności
pozwalają m.in. rozwiązania do zarządzania Fujitsu
ServerView, które poprzez kartę zarządzającą
Fujitsu iRMC (standard dla wszystkich serwerów
rack i blade Fujitsu) umożliwiają monitorowanie
zużycia energii pojedynczych serwerów, jak i ich
grup (np. całych szaf rack) w czasie rzeczywistym.
Dzięki temu narzędziu możemy weryfikować
bieżącą utylizację serwerów i na tej podstawie
kreować optymalne polityki zasilania. Przykładowo
serwery, które są nisko zutylizowane w godzinach
nocnych, mogą mieć automatycznie ograniczaną
wydajność w celu dodatkowej oszczędności energii
lub być całkowicie wyłączane w czasie, kiedy nie
sąużywane.NajnowszeserwerybladeFujitsuBX
dynamicznie równoważą obciążenie zestawów
zasilaczy, tak aby całkowita sprawność energetyczna
obudowy blade była jak najwyższa, dodatkowo
każdy wentylator redundantnego układu chłodzenia
obudowy serwerów kasetowych jest sterowany
indywidualnie, dynamicznie dostosowując się
do utylizacji środowiska serwerowego.
Mniejsze koszty utrzymania centrum danych
to także efekt możliwy do uzyskania przy inwestycji
w nowoczesne pamięci masowe. Istotnym
kosztem w data center, o którym należy pamiętać
jest miejsce i jego efektywne wykorzystanie.
Dzięki półkom dyskowym o upakowaniu nawet
do 60 dysków HDD 3,5” w przestrzeni 4U oraz
dzięki możliwości skalowania wydajności przez
użycie technologii Flash i SSD, a nie tylko przez
rozbudowę dyskami HDD, rodzina macierzy Fujitsu
ETERNUS uzyskuje lepsze wskaźniki wykorzystania
powierzchni. Najnowsza generacja tych urządzeń
pozwala na obsługę mieszanej instalacji dysków
HDD formatu 2,5” i 3,5”, a także obsługę
blokowego i plikowego dostępu do danych
bez tracenia kolejnej przestrzeni w serwerowni,
co jest unikalną funkcjonalnością.
Dodatkowym efektem konsolidacji, szczególnie
w przypadku zastosowania serwerów kasetowych, jest
znaczące uproszczenie zarządzania środowiskiem IT.
W przypadku serwerów kasetowych, całością
środowiska serwery–przełączniki–pamięć masowa
możemy zarządzać z jednej konsoli.
Prosta droga do konsolidacji
Chęć ograniczenia opłat za elektryczność nie
musi jednak oznaczać konieczności poszukiwania
kompromisu między mocą obliczeniową,
a zapotrzebowaniem na energię elektryczną.
Optymalizacja wydatków na rozwiązania IT nie omija kosztów utrzymania data center.
Koszty te w dużej mierze uzależnione są od odpowiedniej utylizacji i wysokiej efektywności
energetycznej posiadanej infrastruktury IT.
20
Jedna maszyna Fujitsu PRIMERGY najnowszej generacji może bowiem z powodzeniem zastąpić kilka fizycznych serwerów starszej generacji, przy jednoczesnym ograniczeniu kosztów zasilania, chłodzenia i obsługi. Za sprawą wirtualizacji taka konfiguracja może okazać się nawet bardziej wydajna i zapewniać wyższą dostępność dla aplikacji. Rodzina serwerów kasetowych PRIMERGY BX to odpowiedź na potrzeby średnich i dużych organizacji poszukujących wydajnego i efektywnego rozwiązania do konsolidacji zasobów IT. Najnowsza generacja serwerów kasetowych z rodziny BX900 zapewnia wysoką wydajność, dostępność i skalowalność, potrzebne w dużych organizacjach. Z kolei zastosowanie rozwiązań blade zaprojektowanych dla sektora SMB (PRIMERGY BX400) łączy wydajność i niezawodność systemu BX900 z łatwością obsługi, wszechstronnością i kompaktowymi rozmiarami, niezbędnymi z punktu widzenia mniejszych przedsiębiorstw. Cechą charakterystyczną serwerów z rodziny PRIMERGY jest możliwość znacznego skrócenia czasu wdrożenia. Szybkiemu wdrożeniu i dopasowaniu do indywidualnych potrzeb sprzyja unikatowy model produkcji i dostaw rozwiązań Fujitsu. Nawet w przypadku jednostkowych zamówień poszczególne maszyny są poddawane rozbudowanym testom i mogą być dostarczane w postaci skonfigurowanej i gotowej do uruchomienia. Rozwiązania Fujitsu dostarczane w szafach rack są standardowo w pełni prekonfigurowane, włącznie z połączeniami I/O i zasilaniem, co dodatkowo skraca czas i koszt wdrożenia oraz eliminuje np. ryzyko błędów podczas instalacji.
Konstrukcja zoptymalizowana pod kątem zużycia energii
Same konstrukcje serwerów też znacząco ewoluują. Elementy takie, jak zarządzalne moduły chłodzenia czy płyty główne i obudowy są optymalizowane
przez Fujitsu pod kątem zużycia energii na etapie projektowania. Gwarantują dzięki temu większą sprawność odprowadzania ciepła przy mniejszym zapotrzebowaniu na energię. Standardem dla serwerów PRIMERGY są zasilacze Hot Plug o sprawności co najmniej 94%, a opcjonalnie dostarczane są zasilacze o sprawności nawet 96%. Warto zwrócić uwagę, że obecnie wiele konkurencyjnych konstrukcji nadal nie oferuje takich parametrów lub oferuje tego typu komponenty jedynie za dodatkową opłatą.
W przypadku macierzy dyskowych ETERNUS DX wszystkich generacji istnieje możliwość zainstalowania dysków o niższym zużyciu energii: SSD lub HDD 2,5”. Przykładowo wymiana dysków 3,5” na dyski 2,5” o identycznych parametrach wydajnościowych pozwala zaoszczędzić nawet 50% energii zużywanej przez macierz. Coraz częściej stosowanym rozwiązaniem jest też zastępowanie klasycznych dysków talerzowych technologią SSD. Ceny tego typu pamięci stale się zmniejszają, a ich oferowana wydajność jest od kilkuset do nawet kilku tysięcy razy większa od pojedynczego dysku talerzowego! Takie rozwiązanie w wielu sytuacjach może się też okazać tańsze w zakupie zapewniając równocześnie znacznie wyższą wydajność rozwiązania. Dyski SSD pozwalają również budować dużo wydajniejsze konfiguracje macierzowe przy minimalnej zajętości miejsca w szafach rack naszej serwerowni. Macierze ETERNUS DX zostały zaprojektowane z naciskiem na ograniczenie kosztów wynikających z okresowych przeglądów lub wymiany krytycznych podzespołów. Dlatego np. we wszystkich modelach Fujitsu zastąpiło kłopotliwe w eksploatacji akumulatory kondensatorami o wysokiej pojemności. Kondensatory te podtrzymują zasilanie modułu kontrolerów tylko na czas przepisania zawartości pamięci cache na dedykowany nośnik nieulotny. Zastosowanie kondensatorów eliminuje też efekt spadku wydajności, jeśli awaria zasilania jest długotrwała – przy stosowaniu akumulatorów po przywróceniu zasilania muszą one osiągnąć
21
określony poziom naładowania, aby ponownie zabezpieczyć pamięć cache. Do tego czasu kontrolery macierzy pracują w mniej wydajnym trybie. Dodatkowo w macierzach korzystających z akumulatorów zazwyczaj konieczna jest ich wymiana maksimum co 2-3 lata. Kolejną ciekawą funkcjonalnością jest MAID (Massive Array of Idle Disks) – jest mechanizm redukujący zużycie energii w okresach niskiego zapotrzebowania na wydajność – pozwala zredukować prędkości obrotowej dysków HDD, aż do ich całkowitego zatrzymania.
Jednocześnie dzięki użyciu unikatowej technologii Cool-safe Advanced Thermal Design możliwa jest bezpieczna i jeszcze bardziej ekonomiczna praca serwerów, pamięci masowych i wyselekcjonowanej infrastruktury sieciowej w wyższej temperaturze otoczenia. Dzięki temu możemy bezpiecznie podnieść temperaturę w serwerowni, redukując znacząco koszty klimatyzacji.
Energooszczędne data center
Jak daleko mogą sięgać oszczędności w utrzymaniu data center w praktyce? Ciekawym przykładem jest nowa serwerownia Yahoo!, zbudowana przez Fujitsu.
Yahoo! jest obecnie jednym z największych serwisów internetowych w Japonii. Spółka uruchomiła niedawno nowy, wysoko energooszczędny ośrodek obliczeniowy, wykorzystujący technologie Fujitsu.
Zupełnie nowe podejście do zasilania serwerów
Zbudowane przez Fujitsu, fabrycznie prekonfigurowane data center jest oparte na jednakowych serwerach – specjalnie zmodyfikowanych wersjach dwuprocesorowych maszyn PRIMERGY RX200.
Jedną z modyfikacji jest specjalnie zaprojektowany, zintegrowany system podtrzymania awaryjnego BBU (Integrated Battery Backup Unit). W typowej serwerowni każda z maszyn jest wyposażona w redundantne moduły zasilania i dedykowane systemy zasilania awaryjnego (UPS). Komponenty te wpływają na całkowitą sprawność energetyczną data center. W serwerowni zaprojektowanej dla Yahoo! przez Fujitsu zrezygnowano z tych elementów – każdy z serwerów posiada wbudowaną dedykowaną baterię, podtrzymującą pracę urządzenia przez czas rozsądny z punktu widzenia SLA usług. Użyte w projekcie serwery Fujitsu PRIMERGY RX200 korzystają z najnowszych procesorów Intel Xeon o niskim poborze mocy. Dodatkowo interfejs zarządzający serwerem (Fujitsu iRMC) jest skonfigurowany tak, aby dynamicznie zmniejszać wydajność maszyny i maksymalnie zwalniać szybkość rotacji wiatraków chłodzących, kiedy serwer nie jest obciążony, co pozwala dodatkowo zredukować zużycie energii elektrycznej. Dzięki eliminacji zbędnych komponentów i optymalizacji zużycia energii serwerów nowe data center Yahoo! jest chłodzone powietrzem atmosferycznym – wyeliminowano drogie i energochłonne układy klimatyzacji. Oszczędność energii elektrycznej w zaprojektowanym przez Fujitsu centrum danych sięga 60%.
Dążenie do ideału, czyli zasilanie tylko sprzętu IT
Branża data center mierzy efektywność zużycia energii w serwerowniach specjalnym współczynnikiem PUE (Power Usage Effectiveness). Dla przykładu wartość 2,0 dla współczynnika PUE oznacza, że na każdy 1 wat energii zużytej do zasilenia serwera zużywany jest dodatkowo 1 wat na dystrybucję energii, chłodzenie, podtrzymanie środowiska IT. Im współczynnik PUE jest bliższy wartości 1,0, tym więcej energii elektrycznej jest w praktyce zużywane tylko na moc obliczeniową data center i tym bardziej energooszczędna jest serwerownia.
22
Dzięki zastosowanym modyfikacjom i optymalizacjom współczynnik PUE dla serwerowni Yahoo! stworzonej przez Fujitsu wynosi zaledwie 1,044. Wartość ta oznacza, że w praktyce w centrum danych Yahoo! prąd
zużywa jedynie sprzęt IT, a znikomy pobór mocy dotyczy innych urządzeń, takich jak wentylatory czy systemy dystrybucji energii. Yahoo! Japan planuje uruchomienie kolejnych data center tego typu wspólnie z Fujitsu.
Adam Dyszkiewicz
Senior Product Manager – Enterprise Products w firmie Fujitsu
Od początku kariery zawodowej związany z branżą IT. Od ośmiu lat zajmuje stanowiska managerskie związane z zarządzaniem liniami produktowymi. Od 2009 roku jest odpowiedzialny za portfolio serwerów x86 i rozwój biznesu serwerowego Fujitsu w Polsce, a obecnie dodatkowo za rozwój biznesu Storage Fujitsu. Zajmuje się m.in. aktywnościami w obszarze marketingu i PR, bezpośrednim wsparciem sprzedaży, szkoleniami dla partnerów i klientów. Adam Dyszkiewicz ukończył studia na kierunku informatyka na Politechnice Warszawskiej oraz jest absolwentem Szkoły Głównej Handlowej.
23
Współczesny biznes prowadzi przez centra danych
Dariusz Wichniewicz, ATM
Biznes dostrzegł wymierne korzyści z wirtualizacji swojej działalności i błyskawicznie pęczniejącej lawiny danych nie sposób już zatrzymać. Rośnie liczba urządzeń mobilnych oraz informacji przesyłanych przy ich użyciu. Dynamicznie rozwija się technologia LTE, dzięki czemu na popularności zyskują wysokiej jakości transmisje wideo. Przybywa zarówno firm i klientów w sektorze e-commerce, jak i użytkowników mediów i gier społecznościowych.
Centrum centrum nierówne
Wspomniane fakty uwiarygadniają prognozy mówiące, że do 2020 r. cyfrowy wszechświat powinien ważyć ponad 40 bilionów gigabajtów. To dziesięciokrotnie więcej niż dziś. Co się jednak wydarzy, jeśli dostęp do choćby części informacji zostanie przerwany? Dość wyobrazić sobie awarie powodujące blokadę dostępu do zasobów informacyjnych przedsiębiorstw lub utratę danych klientów. Skutkiem jest paraliż działania firmy, a wraz z nim utrata prestiżu i przychodów przedsiębiorstwa.
Firmy i instytucje publiczne oczywiście nie przeceniają cyfrowego wszechświata, ale rozumieją, że zapisane w elektronicznej formie dokumenty wymagają bezpiecznego miejsca przechowywania i profesjonalnej ochrony. Potwierdzeniem wzrostu świadomości polskiego rynku jest utrzymująca się na poziomie 15-20 proc. rocznie dynamika popytu na usługi centrów danych. Ten trend nie powinien się
zmienić w przyszłości, coraz częściej bowiem ścieżki biznesu będą wiodły przez centra danych. Tak jest bezpieczniej i ekonomiczniej.
Już choćby z tego względu warto przyjrzeć się rynkowej ofercie i sprawdzić, które obiekty są nowoczesne i utrzymują najwyższe standardy. Powód jest prosty: centra danych są różne, a o bezpieczeństwie bardzo często decydują niewidoczne dla oka detale. Warto sprawdzać referencje dostawców i wybierać wypróbowanych, z doświadczeniem w zarządzaniu centrami danych. Cenna jest także możliwość obejrzenia centrum danych przed podjęciem decyzji o wyborze obiektu pod kolokację. Centra Danych ATMAN i Thinx Poland praktycznie od początku swej działalności umożliwiają zainteresowanym odbycie wizyty referencyjnej, która rozwiewa wątpliwości i pozwala zobaczyć jak bezpiecznie kolokowane są urządzenia. ATM S.A., właściciel obu centrów, jako lider rynku usług kolokacyjnych w Polsce, stale inwestuje w rozbudowę i unowocześnianie swoich centrów danych.
Lokalizacja jest ważna
Na mapie świata pojawia się coraz więcej centrów danych, które w zależności od lokalizacji podlegają innym regulacjom prawnym. Z perspektywy zarządzania danymi osobowymi ma to krytyczne znaczenie. Przykładowo, dostawcy, którzy świadczą usługi centrów danych w państwach spoza Europejskiego Obszaru Gospodarczego, nie zawsze wskazują miejsca, gdzie dane klientów będą
Dzieje się tak z trzech powodów. Zinformatyzowany biznes „produkuje” coraz więcej danych.
Im większa ich ilość, tym bardziej konkurencyjność firm zależy od poziomu bezpieczeństwa
oraz kosztów gromadzenia i przechowywania informacji w postaci cyfrowej.
24
fizycznie gromadzone i przetwarzane. W Polsce jest
inaczej, podmioty przetwarzające dane osobowe
mają obowiązek podania miejsca przetwarzania
danych poza UE, a za złamanie tak istotnego
przepisu grożą kary.
Dlatego tak istotne jest upewnienie się, czy
centrum danych, do którego chcemy przenieść
swoje zasoby, podlega rodzimym i unijnym
przepisom w obszarze ochrony danych osobowych.
W wymiarze prawnym warto również upewnić się,
czy dostawca usług centrów danych zawiera
ze swoimi klientami umowy typu Service Level
Agreement (SLA). Umowa SLA dotycząca usług
w Centrach Danych ATMAN i Thinx Poland
(zlokalizowanych na terenie Warszawy i Katowic)
pozwala nie tylko sformalizować zasady
współpracy (np. zakres odpowiedzialności
po stronie dostawcy i użytkownika), ale też określić
poziom kluczowych parametrów usług i uzyskać
najwyższy poziom jakości i bezpieczeństwa
w oparciu o najlepsze praktyki.
Potrzebna redundancja
Kluczowe jest spełnianie przez dostawcę usług
centrów danych najwyższych standardów
w obszarze infrastruktury i oprogramowania.
W przypadku infrastruktury teleinformatycznej
bezpieczeństwo zależy od pełnej dostępności
podstawowych zasobów: łączy telekomunikacyjnych,
które umożliwiają stabilny i wydajny transfer
danych przez Internet, a także kilku źródeł
zasilania o jednakowo dużej mocy. Atutem
dostawcy jest dysponowanie powierzchnią
kolokacyjną w różnych lokalizacjach, co jest
niezbędne do świadczenia usługi typu DRC
(Disaster Recovery Center). Dzięki temu
usługodawca może zapewnić klientowi
nieprzerwany dostęp do danych nie tylko
na poziomie pojedynczych systemów,
ale i całego obiektu. Warto więc upewnić się, czy wspomniany dostawca posiada więcej obiektów kolokacyjnych i czy mają one niezależne tory zasilania miejskiego i wewnętrznego z podtrzymaniem UPS, dodatkowe generatory prądu oraz redundantną klimatyzację.
Poziom bezpieczeństwa dodatkowo podnoszą: możliwość wymiany podzespołów lub uszkodzonego serwera w krótkim czasie, ochrona sieci (w tym rozwiązania firewall) i system anty-DDoS, a także backup danych oraz zabezpieczenie dostępu do paneli administracyjnych za pomocą certyfikatu SSL, który pozwala szyfrować i chronić przed przechwyceniem poufne dane przesyłane pomiędzy serwerem a użytkownikiem.
Wielu operatorów w jednym miejscu
Szukając centrum danych dla swoich zasobów, warto dowiedzieć się, jacy operatorzy dostępni są w wybranym obiekcie. Profesjonalne centra danych oferują zwykle usługi kilkunastu różnych operatorów. Natomiast najkorzystniejsze pod tym względem jest zdecydowanie się na neutralne telekomunikacyjnie centrum danych, bo to oznacza dostępność łączy zwykle kilkudziesięciu operatorów. W Polsce nie ma wielu takich obiektów. Największym jest zlokalizowane w Warszawie Centrum Danych Thinx Poland, którego dodatkowym atutem jest obecność węzła punktu wymiany ruchu Thinx, umożliwiającego bezpłatną i nielimitowaną wymianę ruchu IP pomiędzy operatorami.
W trybie 24/7
Firmy, które planują outsourcing swoich zasobów do centrów danych, powinny także sprawdzić mechanizmy zapewniające właściwy poziom kontroli dostępu do danych i informacji oraz dostępu fizycznego do kluczowych elementów
25
infrastruktury teleinformatycznej. Spełnienie tych warunków to obecnie standard w centrach danych, wymagający de facto pracy w trybie 24/7 nie tylko ochrony i systemu kontroli dostępu, w tym monitoringu CCTV, ale też utrzymania systemu gaszenia, opieki operatorskiej i serwisowej. Tak zaprojektowane i zarządzane centra danych mogą oferować bezpieczne usługi kolokacji.
Alternatywą jest wydatek kilkudziesięciu milionów
Oczywiście część firm wciąż preferuje gromadzenie danych we własnych serwerowniach, choć może to być kosztowna inwestycja.
Budowa średniej wielkości serwerowni, która spełnia najwyższe standardy bezpieczeństwa na poziomie technologicznym, może kosztować kilkadziesiąt milionów złotych. Dodatkowym obciążeniem jest jej utrzymanie: trzeba zapewnić bezpieczeństwo techniczne i fizyczne, co wymaga całodobowego monitoringu oraz zaangażowania sztabu ludzi. Dla wielu przedsiębiorstw może to stanowić prawdziwe wyzwanie. Dlatego rozsądniejszą alternatywą jest outsourcing całości lub części infrastruktury IT i skorzystanie z jednej z usług centrów danych: kolokacji, hostingu lub chmury obliczeniowej. Każda z nich może przynieść firmie wymierne korzyści. Dzięki centrom danych dysponującym rezerwą podstawowych zasobów (powierzchnia, zasilanie, łącza) biznes klienta może się swobodnie rozwijać. Centra danych ATMAN i Thinx Poland oferują niemal nieograniczony dostęp do powierzchni kolokacyjnych, gwarantując możliwość wzrostu klienta przez wiele lat, w zależności od jego potrzeb.
Biznes za kilkaset złotych
O ile większe organizacje – zwłaszcza z sektora finansowego i telekomunikacyjnego – preferują
usługi kolokacyjne, o tyle sektor małych i średnich przedsiębiorstw chętniej sięga po hosting i dedykowane serwery. Podobnie jak w segmencie usług kolokacyjnych, tak i tutaj dynamika popytu na hosting utrzymuje się na wysokim poziomie.
Odzwierciedla to rosnąca popularność usług ATMAN EcoSerwer, które umożliwiają małym i średnim firmom uruchomienie m.in. strony internetowej oraz aplikacji biznesowych, np. e-commerce. W 2011 r. wartość ich sprzedaży była jeszcze niezauważalna z punktu widzenia całości przychodów. Przez kolejne dwa lata jednak przychody wzrosły z 1,3 mln w 2012 r. do 3,8 mln zł w 2013 r. Ośmiokrotny wzrost sprzedaży w 2012 r. i trzykrotny w 2013 r. wynika wprawdzie z niskiej bazy startowej, ale rosnący trend powinien utrzymać się na wysokim poziomie także w przyszłości.
Dzięki hostingowi i serwerom dedykowanym, które są wynajmowane w centrach danych, uruchomienie i rozwinięcie biznesu w sieci może kosztować zaledwie kilkaset złotych. Firmy nie muszą ani kupować sprzętu (otrzymują w dzierżawę dedykowany serwer), ani dbać o jego techniczną sprawność (mają zapewnioną opiekę serwisową). Infrastruktura udostępniana jest w centrach danych w formie usługi na żądanie (w ciągu godziny) i rozliczana w trybie abonamentowym. Dodatkowo taka usługa jak ATMAN EcoSerwer umożliwia swobodną konfigurację i zmianę wydajności serwerów, kiedy jest to potrzebne.
Biznes w chmurze
Podobne korzyści zapewnia ulokowana w centrum danych chmura obliczeniowa. Firmy nie muszą kupować infrastruktury serwerowej i sieciowej – jest ona udostępniana w formie usługi. Dzięki temu firma może zoptymalizować swoje koszty (oszczędzając m.in. na sprzęcie,
26
energii i usługach zarządzania), zyskać większą elastyczność i skalowalność, a także podwyższyć bezpieczeństwo i komfort pracy.
Przenosząc swoje zasoby do chmury, przedsiębiorca może ponadto skupić się na swojej podstawowej biznesowej działalności, zamiast martwić się o warstwę teleinformatyczną, w tym monitoring systemów technicznych, kontrolę wykorzystania zasobów, aktualizację oprogramowania czy backup danych. Takie możliwości daje np. ATMAN Private Cloud – oferowana użytkownikom Centrum Danych ATMAN prywatna chmura z wydzielonym środowiskiem informatycznym, w tym procesorami, pamięcią RAM, siecią oraz przestrzenią dyskową. Dodatkowym atutem ATMAN Private Cloud jest możliwość przeniesienia odpowiedzialności za administrowanie chmurą na specjalistów zatrudnionych przez dostawcę usługi.
Postscriptum
Kiedy w minionej dekadzie do powszechnego języka wszedł termin „outsourcing IT”, wielu przedsiębiorców z obawą podchodziło do pomysłu, by wynosić na zewnątrz swoje zasoby. Lęk jednak bardziej wynikał m.in. z braku doświadczenia i obawy przed „nowym”. Dziś jest inaczej. Przybywa zarówno małych, jak i dużych firm, które wolą prowadzić swój biznes, korzystając z usług kolokacyjnych, hostingowych lub cloud computing świadczonych w centrach danych. Potwierdzeniem są niedawne wyniki badań PMR — instytucji badawczej opracowującej cykliczne raporty dotyczące m.in. rynku teleinformatycznego. Choć polski rynek usług centrów danych wciąż znajduje się we wczesnej fazie rozwoju, obecnie jest już wart ponad miliard złotych. W przyszłym roku powinien urosnąć o kolejne kilkanaście procent. Dlaczego?
W nowoczesnych centrach danych prowadzenie biznesu jest prostsze, bezpieczniejsze i tańsze.
Dariusz Wichniewicz
Dyrektor Działu Rozwoju Usług Telekomunikacyjnych w ATM S.A. Z branżą telekomunikacyjną związany jest ponad 20 lat. Jest jednym z pionierów komercyjnego Internetu w Polsce. Przy jego aktywnym wsparciu merytorycznym ATM S.A. jako pierwsza firma w Polsce zaczęła świadczyć usługi internetowe dla firm pod marką Internet Komercyjny w Polsce, a następnie rozwinęła działalność operatorską, dziś świadczoną pod marką ATMAN. Pracował także m.in. w Internet Partners i GTS.
27
Realna twierdza wirtualnych danych – bezpieczeństwo data center
Nikt nie ma wątpliwości, że wykorzystanie chmury obliczeniowej w biznesie staje się coraz popularniejsze. Ośrodki przetwarzania danych świadczące usługi w technologii cloud computing są partnerami nie tylko dla korporacyjnego biznesu, ale także dla firm z sektora MŚP, urzędów administracji publicznej, jednostek ochrony zdrowia i organizacji pozarządowych. Ostatnie badania Microsoftu wskazują, że 48% średniej wielkości polskich firm dobrze rozumie mechanizmy działania i korzyści biznesowe kryjące się w chmurze obliczeniowej. Z innych badań wynika, że w ciągu ostatnich trzech lat radykalnie zmniejszyła się niewiedza polskich przedsiębiorców na temat nowoczesnego outsourcingu IT (z 63% do 9% w tym roku). O ile większość firm dobrze rozumie jakie zalety posiadają usługi przetwarzania danych w chmurze obliczeniowej, to najczęściej wskazywanym elementem powstrzymującym przedsiębiorców przed zdalnym IT są obawy związane z bezpieczeństwem. Zdaniem specjalistów z Sage, którzy przeprowadzili ankietę wśród przedsiębiorców, 57% badanych uważa bezpieczeństwo za najważniejszą kwestię outsourcingu IT.
Dla osób zarządzających ośrodkami przetwarzania danych odpowiednie zabezpieczenie danych jest najważniejszym aspektem usług w chmurze. Kompleksowo rozumiane bezpieczeństwo jest podstawą działania, ale także wyznacznikiem atrakcyjności oferty. Jego stopień przekłada się na stabilność, przewidywalność i pewność nowego wymiaru biznesu. Globalne trendy potwierdzają fakty, z których wynika, że z usług data center coraz częściej korzystają podmioty sektora publicznego i duże korporacje. z jednej strony najwięksi gracze pokładają w dedykowanych ośrodkach zaufanie, a z drugiej strony dokładnie wyliczają korzyści finansowe. Bezpieczeństwo danych informatycznych kosztuje i coraz rzadziej nawet duże firmy decydują się same inwestować środki we własną infrastrukturę. Korzystniejszy
w wymiarze poniesionych kosztów w stosunku
do poziomu zabezpieczenia jest wynajem zasobów
w działających ośrodkach przetwarzania danych.
Migracja w chmurę oznacza przeniesienie zasobów do
centrów danych, które są solidnie (fizycznie i logicznie)
zabezpieczone, posiadają infrastrukturę najwyższej
jakości oraz profesjonalne standardy działania.
Oprogramowanie w chmurze ma gwarancję, że jest
zawsze aktualne i dobrze zabezpieczone. Dla firmy
oznacza to pewność, że nie pojawią się problemy
z przestarzałym lub źle funkcjonującym systemem.
– Elżbieta Zdrojewska, Dyrektor Handlowy, Exea
Dwa wymiary bezpieczeństwa: fizyczny i wirtualny
Usługi przetwarzania danych w postaci chmury
obliczeniowej, wynajmu pamięci masowych czy
wykorzystania kolokowanych i dedykowanych
serwerów są dobrze zabezpieczone. Profesjonalne
ośrodki dbają o kwestie bezpieczeństwa danych
i całej infrastruktury. Polityka bezpieczeństwa
jest realizowana w dwóch wymiarach:
fizycznym i wirtualnym. Niezmiernie istotne
jest odpowiednie przygotowanie infrastruktury
środowiska serwerowego, zaczynając od obiektu,
jego lokalizacji, przez konstrukcję i podłączenie
do mediów podtrzymujących funkcjonowanie
środowiska, kończąc na wykwalifikowanym
personelu i odpowiednich procedurach. Po stronie
wirtualnej bezpieczeństwo to kwestie związane
z platformami systemowymi oraz ich obsługą
i gwarancją ciągłości funkcjonowania. Liczy się
solidne zabezpieczenie danych przed różnego
rodzaju awariami i atakami.
Chmura jest bezpieczniejsza
Kiedy pracownicy stają się coraz bardziej
mobilni i coraz częściej korzystają ze zdalnych
zasobów przedsiębiorstwa, oczywistym
28
rozwiązaniem problemu bezpieczeństwa danych jest chmura obliczeniowa. Ale czy zdalne zasoby informatyczne, które są wystawiane z poziomu firmy gwarantują odpowiedni poziom bezpieczeństwa? Niektórzy przedsiębiorcy wciąż preferują korzystanie z własnych, często nieprofesjonalnie przygotowanych serwerów. Urządzenia te często funkcjonują w prowizorycznym środowisku serwerowym, które w minimalny sposób zabezpiecza cenne dane. Utrzymanie serwerowni na odpowiednim poziomie zabezpieczeń jest obecnie znacznym kosztem. Usługi profesjonalnego data center są w tym przypadku często nieporównywalne, a zależność koszt–bezpieczeństwo, prawie zawsze wskazuje ofertę chmurową jako korzystniejszą. Ponadto, zdalne połączenie pracowników z wirtualnymi zasobami w dobrze przygotowanej chmurze obliczeniowej eliminuje ryzyko wycieku danych.
Bezpieczeństwo środowiska wirtualizacji
Chmura obliczeniowa to moc urządzeń informatycznych organizowanych przez środowisko wirtualizacyjne. To dzięki niemu administratorzy są w stanie dynamicznie tworzyć różne instancje czy wirtualne maszyny dla poszczególnych odbiorców. Bezpieczeństwo platformy wirtualizacyjnej oznacza korzystanie z renomowanych rozwiązań. Przykładowo Exea Data Center używa jednego z najlepszych środowisk tego typu, tj. VMware.
Pewność środowiska to gwarancja najnowszych aktualizacji i wersji zastosowanych systemów operacyjnych i platform. Rozwiązania chmurowe minimalizują ryzyko ludzkiego błędu, który bardzo często prowadzi do zachwiania bezpieczeństwa całego systemu. Zasoby informatyczne wynajmowane w centrum przetwarzania danych to gwarancja, że systemy są zawsze aktualne (aktualizacje, poprawki). Wszelkie aktualizacje są wdrażane automatycznie dla wszystkich użytkowników.
Wirtualne pole walki
Obecnie logiczny wymiar przetwarzania danych
to permanentne zagrożenie różnego rodzaju
cyberatakami. Nowoczesne data center musi
gwarantować ochronę przed technikami ataku
wykorzystującymi sieć komputerową. Dane
firm narażone są na próby kradzieży, a także
cybersabotażu – zniszczenia baz danych
czy ograniczenia do nich dostępu. Coraz
popularniejsze są ostatnio ataki typu DDoS,
które stanowią poważne zagrożenie nie tylko
dla podmiotów o dużym zasięgu, ale również
mniejszych firm.
Elżbieta Zdrojewska, Dyrektor Handlowy, Exea
29
Jednym z podstawowych narzędzi ochrony jest pełna kontrola administratorów nad ruchem przychodzącym, wychodzącym i przebiegającym wewnątrz centrum danych. Rozwiązania bezpieczeństwa nowej generacji oferują o wiele więcej funkcji niż tradycyjne firewalle. Jest to kontrola na poziomie aplikacji, wirtualnego środowiska, a także poszczególnych użytkowników. Pamiętać należy, że każdy klient musi mieć zdefiniowaną odpowiednią politykę bezpieczeństwa. w trakcie wykonywania usługi globalny monitoring środowiska pozwala na natychmiastową reakcję w przypadku incydentów (np. włamania lub nieuprawnionego transferu danych).
W parze ze wzrostem popularności platform mobilnych idzie gwałtowny przyrost zagrożeń wszelkiego rodzaju wirusami, atakującymi użytkowników końcowych, ale także całą infrastrukturę. Dlatego nieodzownym elementem wirtualnej warstwy zabezpieczeń powinna być kompleksowa ochrona antywirusowa.
Zabezpieczenia software’owe to przede wszystkim wykorzystanie najlepszych środowisk i systemów operacyjnych, wdrożenie systemów zapory, antywirusy i systemy antyDDoS. Nie można zapominać o certyfikowanych i sprawdzonych rozwiązaniach szyfrujących transmisję danych.
– Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea
Backup środowiska
Centrum przetwarzania danych gromadzi petabajty danych, a w perspektywie biznesowej musi gwarantować kopie bezpieczeństwa na wypadek awarii i groźby ich utraty. Nie ma możliwości funkcjonowania data center bez procedur tworzenia kopii zapasowych poszczególnych bloków danych na poziomie klientów, jak również strukturalnie na poziomie
zasobów data center. Elementarną funkcją
zabezpieczenia jest tworzenie (z możliwością
odtwarzania) kompletnej kopii środowiska –
tzw. disaster recovery.
Ekspercka kadra i określone uprawnienia
Praktyka pokazuje, że najsłabszym ogniwem
jest czynnik ludzki. Dlatego tak ważne jest
zaangażowanie odpowiednich ludzi z należytymi
kwalifikacjami. Obok wiedzy, muszą funkcjonować
przejrzyste i precyzyjne procedury. Osoby
pełniące role administratorów środowiska
powinny być obejmowane klauzulami poufności.
Każdy pracownik musi posiadać dokładnie
określone prawa dostępu. Dobrą praktyką
profesjonalnych centrów przetwarzania danych
jest przejrzystość procedur i jednolity system
raportowania incydentów.
Ścisłe określenie reguł jest także zabezpieczeniem
przed utratą danych. Chmurowe centra danych,
takie jak toruńska Exea Data Center, posiadają
systemy, dzięki którym gromadzone zasoby są
zabezpieczone na wypadek awarii i utraty danych.
– Elżbieta Zdrojewska, Dyrektor Handlowy, Exea
Fizyczne bezpieczeństwo dla wirtualnych danych
Pewność przetwarzanych danych to w istocie
bezpieczeństwo obiektu centrum przetwarzania
danych od lokalizacji budynku, aż po konstrukcję.
Przy wyborze lokalizacji dla toruńskiego ośrodka
przetwarzania danych Exea, brano pod uwagę
geograficzne położenie terenu względem
szlaków transportowych, portu lotniczego czy
terenów zalewowych. W przypadku Torunia
analiza dotyczyła też zagrożeń kataklizmami,
np. przerwania tamy na Wiśle we Włocławku.
Zabezpieczenie budynku to odpowiednia
konstrukcja obiektu i specjalistyczna technika
30
przeciwpożarowa. Ewentualny pożar w centrum przetwarzania danych musi zostać ugaszony w takim sposób, aby ryzyko uszkodzenia danych było minimalne.
Realna ochrona
Elementarnym działaniem jest fizyczna ochrona obiektu. Dostęp do poszczególnych przestrzeni data center jest ściśle określony i rejestrowany. Stosuje się monitoring z wewnętrznymi i zewnętrznymi kamerami wysokiej rozdzielczości oraz czytniki biometryczne montowane przy wejściach do komór serwerowych. Wyposażenie pracowników ochrony w broń ostrą zniechęca kogokolwiek do ewentualnych aktów sabotażu czy dywersji.
Energia
Bezpieczeństwo fizyczne ma zapewniać ciągły dostęp do danych. Najważniejsza dla infrastruktury
środowiska data center jest energia. Przerwy
w dostawie energii są jedną z najpoważniejszych
przyczyn problemów z dostępnością do
danych. Dlatego centra przetwarzania danych
zabezpieczają się doprowadzając do swoich
obiektów alternatywne linie zasilania i instalując
dodatkowe GPZ-y. Zabezpieczenie dodatkowej
linii zasilania nie zawsze wystarczy, dlatego
środowiska serwerowe muszą posiadać
własne systemy zasilania. Są to najczęściej
agregaty prądotwórcze, które włączają się
zaraz po przerwaniu zasilania sieciowego.
Rozbudowane systemy baterii UPS podtrzymują
pracę środowiska w newralgicznym momencie
zmiany źródła zasilania. Najlepsze ośrodki
posiadają redundantne systemy UPS i agregaty,
aby wyeliminować możliwość przerwania choćby
na sekundę pracy środowiska w przypadku
awarii któregoś z komponentów. Pamiętać
należy, że podtrzymane muszą zostać nie tylko
urządzenia IT, ale również całe środowisko
serwerowe, w tym klimatyzacja.
Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea
31
Łącza internetowe
Innym esencjonalnym elementem funkcjonowania
data center jest oczywiście podłączenie do sieci
internetowej. Profesjonalne ośrodki dywersyfikują
dostawy internetu pośród różnych dostawców
korzystających z fizycznie odrębnych linii
światłowodów. W obecnej dobie posiadanie
minimum trzech oddzielnych dostawców jest
właściwie standardem.
Klimatyzacja w środowisku serwerowym
Bezpieczeństwo urządzeń funkcjonujących w data
center to wymóg zapewnienia stabilnych warunków
klimatycznych dla serwerowni. Niezmiernie
ważne jest zastosowanie profesjonalnych
i odpowiednio zaprojektowanych systemów
klimatyzacji precyzyjnej. Komory serwerowe
powinny funkcjonować w oparciu o układ
urządzeń wytwarzających korytarze powietrza
o odpowiedniej temperaturze i wilgotności.
Certyfikacje: potwierdzone bezpieczeństwo
W ciągu ostatnich lat światowa branża
przetwarzania danych stała się na tyle istotna,
że powstały różne procedury. Coraz częściej
wymogi w zakresie bezpieczeństwa są stawiane
przez regulacje prawne i rozporządzania
administracyjne. Branża stosuje ponadto
specjalistyczną certyfikację, aby podkreślać
na rynku silną pozycję ośrodków, które w sposób
szczególny kładą nacisk na zabezpieczenia.
Dwa najważniejsze systemy oceny pochodzą z USA.
Pierwszy wprowadziła organizacja Uptime
Institute, a drugi Telecommunications Industry
Associacion. Obie organizacje dość podobnie
określają zasady funkcjonowania data center,
ale różnią się w szczegółach.
Założony w 1993 roku Uptime Institute opracował
dokumentację, która określa wyznaczniki
wysokiej jakości standardów w zakresie
funkcjonowania i odpowiedniej wydajności data
center. Zdefiniowano czteropoziomowy system
certyfikatów (Tier I – IV), które określają klasę
ośrodka przetwarzania danych. Dokument Data
Center Site Infrastructure Tier Standard: Topology –
określa główne wyznaczniki dla poszczególnych
stopni certyfikatów. Im wyższy stopień
certyfikatu, tym większy poziom bezpieczeństwa
i niezawodności urządzeń, a tym samym
lepsza gwarancja dostępności do danych.
Przy poziomie Tier III ośrodek może funkcjonować
niezależnie od prac serwisowych poszczególnych
komponentów. Jest to możliwe dzięki redundantnej
architekturze systemów zasilania i chłodzenia.
Co więcej, w przypadku awarii któregoś modułu,
niezależnie zadziała drugi, a wszystkie prace
serwisowe można wykonywać na pracującej
infrastrukturze IT.
Bardzo często zarządzający centrami przetwarzania
danych uzupełniają certyfikację infrastruktury
normami zarządzania jakością (ISO 9001) a także
bezpieczeństwem systemów informatycznych
(ISO 27 001). Oczywiście normy ISO dotyczą
aspektów organizacyjnych i procedur. Mają
one również wpływ na bezpieczeństwo całej
organizacji, co w konsekwencji przekłada się
na niezawodność całego centrum danych.
Poprzez audyty certyfikujące niezależni eksperci
potwierdzają wysoką jakość bezpieczeństwa.
Fizyczna topologia infrastruktury obiektu data
center powinna posiadać aktywne instalacje
zasilające, nadmiarowe komponenty we wszystkich
podsystemach oraz odporność na uszkodzenia.
Data center działające w oparciu o certyfikowaną
infrastrukturę gwarantuje wysoki poziom
bezpieczeństwa danych. Redundantne komponenty
środowiska serwerowni powodują, że pojawienie
się jakiejkolwiek awarii nie jest odczuwalne
dla klienta, który dysponuje nieprzerwanym
dostępem do swoich danych.
32
Centrum Przetwarzania Danych Exea w Toruniu otrzymało certyfikat Tier III Certification of Design Documents. Dzięki temu Exea stała się jednym z dwóch ośrodków w Polsce spełniających wysokie standardy Uptime Institute. Klasyfikacja Tier określa poziom niezawodności infrastruktury fizycznej w centrach IT; dotyczy systemów w środowisku serwerowni, takich jak zasilanie, chłodzenie, rozwiązania architektoniczne i bezpieczeństwo. Data center funkcjonujące w oparciu o certyfikowaną dokumentację projektową gwarantuje użytkownikom bezpieczeństwo oraz wysoki poziom dostępu do danych.
Audytorzy analizowali projekt obiektu Exea pod kątem dedykowanych rozwiązań architektonicznych (odpowiednio przygotowane pomieszczenia do poszczególnych modułów infrastruktury: komory serwerowe, urządzenia podtrzymujące zasilanie UPS czy agregaty prądotwórcze). Istotna jest możliwość rozbudowy centrum danych oraz mechaniczne i automatyczne rozwiązania ułatwiające utrzymanie nieprzerwanego działania środowiska serwerowni. Certyfikacja dotyczy również odpowiedniej lokalizacji obiektu, która minimalizuje ryzyka związane z naturalnymi kataklizmami czy działalnością ludzką (np. odległość od portu lotniczego i autostrady).
Ścieżka certyfikacji Tier podzielona jest na 3 etapy: pierwszy z nich to zakończona właśnie przez Exea dokumentacja projektowa. Drugim krokiem jest certyfikacja wybudowanego zgodnie z projektem obiektu (Tier Certification of Constructed Facility). Ostatnim etapem jest natomiast certyfikat niezawodności operacyjnej działającego ośrodka przetwarzania danych (Operational Sustainability Certification), który potwierdza najwyższą jakość funkcjonującego centrum i bierze pod uwagę procedury jakie należy stosować, aby zapewnić odpowiednią niezawodność operacyjną.
Zarządzając data center, które posiada certyfikat TIER III na dokumentację projektową, bezpieczeństwo na poziomie infrastruktury wyraża się faktem, iż dowolny element infrastruktury może zostać wyłączony na potrzeby prac konserwacyjnych bez przerywania pracy sprzętu znajdującego się w komorze serwerowej. Zasada ta dotyczy również części serwerowej oraz sieciowej – zarówno od strony połączeń – jak i sprzętu.
– Sławomir Kozłowski, Dyrektor Centrum Przetwarzania Danych, Exea
33
Zakończenie
Usługi oferowane przez certyfikowany ośrodek przetwarzania danych pozwalają odbiorcom w większym stopniu koncentrować się na meritum ich działalności i to stanowi największą zaletę
wysokiego poczucia bezpieczeństwa. Warto pamiętać, jak wiele wymiarów ma kompleksowe zabezpieczenie danych w data center i na co należy zwrócić uwagę wybierając dostawcę chmury obliczeniowej.
Elżbieta Zdrojewska
Dyrektor Handlowy Exea z dwunastoletnim doświadczeniem handlowym w branży IT. Absolwentka Wydziału Fizyki, Astronomii i Informatyki Stosowanej UMK w Toruniu. Specjalizuje się w biznesowym podejściu do informatyki oraz optymalizacją kosztów przedsiębiorstw. Doświadczeniem zawodowym aktywnie wspiera integratorów we wdrażaniu nowoczesnych technologii.
Sławomir Kozłowski
Dyrektor Centrum Przetwarzania Danych Exea, od początku kariery zawodowej związany ściśle z branżą IT. Aktywny w obszarze nowoczesnych technologii, zawsze czuły na potrzeby biznesu.
34
Jak polscy dostawcy podchodzą do umów powierzenia?
Beata Marek, Cyberlaw.pl
To tytuł pierwszego w Polsce badania przeprowadzonego na grupie 50 losowo wybranych usługodawców mających siedzibę w Polsce i oferujących klientom biznesowym dostęp do zasobów IT, które zostało przeprowadzone przez Cyberlaw i Cloud Security Alliance Polska.
Wynika z niego m.in., że:
•Aż90%niedostarczajakiejkolwiekinformacji na tematy związane z prawnymi aspektami powierzenia danych w ramach outsourcingu za pomocą firmowej strony www.
•Zaledwie32%rozumiepotrzebyswoich potencjalnych klientów oferując im możliwość zawarcia pisemnej umowy powierzenia przetwarzania danych osobowych oraz wglądu do wzornika umowy przed rozpoczęciem świadczenia usługi.
Raport z badania został wzbogacony o rozmowę z dr Wojciechem Wiewiórowskim – Generalnym Inspektorem Ochrony Danych Osobowych, który wskazał m.in, że:
•Dostawca nie ma obowiązku sprawdzać, jakie dane są przechowywane, ale jeżeli otrzyma od klienta informację, że są albo będą przechowywane dane osobowe, to jest już wystarczające do tego, żeby po stronie dostawcy pojawiły się obowiązki wynikające z ustawy o ochronie danych osobowych.
•Dostawca powinien zastanowić się, czy jest tylko przetwarzającym, czy może staje się de facto administratorem danych osobowych.
Beata Marek
Jest prawnikiem i właścicielem Cyberlaw. Na co dzień łączy biznes z prawem i bezpieczeństwem teleinformatycznym. Uwielbia pracę w interdyscyplinarnych zespołach i atmosferę startupów. Specjalizuje się w prawie nowych technologii.
Autorka wielu publikacji i prelegentka na licznych, branżowych konferencjach. Dyrektor ds. prawnych w ISSAPolska – Stowarzyszeniu do spraw Bezpieczeństw Systemów Informacyjnych, wiceprezes Cloud Security Alliance Polska, członkini International Cyber Threat Task Force, a także Fundacji Bezpieczna Cyberprzestrzeń.
Redaktor naczelna kwartalnika naukowego „ICT Law Review“ oraz autorka bloga dla programistów i e-przedsiębiorców „cyberlaw.pl“.
Całość można przeczytać na www.cyberlaw.pl
36
Czytaj całość
Jak spać spokojnie, czyli nieprzerwana dostępność danych krok po kroku
W ostatnich latach świat biznesu znacząco się zmienił, a rozwój nowoczesnych technologii sprawił, że firmy działają nieprzerwanie. Niezależnie od tego czy ktoś potrzebuje skorzystać z danych w południe czy o trzeciej nad ranem, dostępność centrum danych musi być wysoka. Co więcej, ewentualna awaria nie może doprowadzić do długiego przestoju. Czy przy takich wymaganiach managerowie i administratorzy IT mogą spać spokojnie?
7 grzechów głównych systemów backupu
System backupu w przedsiębiorstwie cały czas pozostaje tematem, który często pomija się w planach rozwojowych, a jeśli już się w nich pojawia to w kontekście poszukiwania oszczędności. Prowadzi to do sytuacji, w której nie spełnia on często swojej roli i w konsekwencji nie gwarantuje bezpieczeństwa przechowywanych danych. Doświadczenia w przeprowadzaniu audytów Centralnych Systemów Backupu (CSB) i wnioski z nich płynące, pozwoliły nam na sporządzenie zestawienia najczęściej występujących „grzechów głównych systemów backupu”.
Czytaj całość
37
Centra danych zgodne z Rekomendacją D
W coraz większym stopniu konkurencyjność instytucji finansowych jest warunkowana przez bezpieczne gromadzenie i przetwarzanie danych. Prawie 90 proc. Polaków otrzymuje wynagrodzenia przelewem, 77 proc. posiada rachunek oszczędnościowo-rozliczeniowy, a 66 proc. posiada kartę płatniczą1. Na popularności zyskują również bankowość mobilna i analizy Big Data, które umożliwiają instytucjom finansowym skuteczniejsze personalizowanie oferty. Co by się jednak wydarzyło, gdyby dostęp do danych został przerwany choćby na chwilę?
Onet w chmurze
Realizacja projektu poprowadzonego wspólnie przez IBM i Onet Technologie, działu obsługującego portal Onet od strony informatycznej, trwała około roku. Większość tego czasu zajęło opracowanie odpowiedniego modelu biznesowego i koncepcji infrastruktury, natomiast samo wdrożenie trwało kilka miesięcy. Chmura została zbudowana w całości na bazie komponentów IBM klasy enterprise. Rozwiązanie będzie udostępnione klientom Onetu w marcu 2013 roku. Przedstawiamy Państwu case study tego projektu.
Czytaj całość
Czytaj całość