Sześć kluczowych kroków, dzięki którym poprawisz elastyczność i zwinność komputerów typu mainframe

15 January, 2020 12:00 10 min Administrator

Autor : Chris O’Malley,  prezes firmy Compuware.

Zespoły programistów i operacyjne stoją obecnie przed wyzwaniem, jakim jest przekształcenie komputerów typu mainframe w narzędzia, które zapewnią zwinność organizacji, pomimo tego, że dotychczas były one znane jako ograniczone platformy, których priorytetem była niezawodność systemu, a nie zapewnianie wartości dla klientów.

Wprowadzenie tej niezwykle dużej zmiany, jaką jest przejście z nastawienia na utrzymanie status quo na nieustanne doskonalenie poprzez zastosowanie metodyk zwinnych, wymaga wprowadzenia nowego podejścia, nazywanego roboczo „mainframe w głównym nurcie”. Niektóre z kluczowych działań, które umożliwią tę transformację, obejmują:

1. Realizację dobrze zdefiniowanej misji
Pierwszym krokiem jest inspiracja zespołu poprzez zdefiniowanie misji zorientowanej na potrzeby klientów, a następnie upewnienie się, że wszyscy zaangażują się w jej realizację. Wielu interesariuszy – od pracowników operacyjnych po kadrę kierowniczą odpowiedzialną za decyzje budżetowe – mogło ulec powszechnemu błędnemu przekonaniu, że przejście do chmury jest jedynym rozwiązaniem.

Aby zagwarantować zaangażowanie wszystkich pracowników, organizacje muszą przede wszystkim postawić sprawę jasno i pokazać głównym interesariuszom, że komputery typu mainframe nigdzie się nie wybierają i są ku temu mocne przesłanki – ostatnie dane pokazują (4), że przeniesienie kluczowych systemów opartych na mainframe’ach na inne platformy jest bardzo kosztowne, a zarazem niepraktyczne i jako takie stanowi nieefektywne wykorzystanie ograniczonych zasobów finansowych organizacji.

2. Ustalenie i konsekwentne mierzenie wskaźników efektywności
Tradycyjne kluczowe wskaźniki efektywności (KPI) dotyczące działań komputerów typu mainframe koncentrowały się na takich pomiarach, jak dostępność na poziomie pięciu dziewiątek – 99,999%, a także okien czasowych realizacji zadań. Wszystkie te wskaźniki są użyteczne i ważne, jednak poleganie wyłącznie na nich jest przestarzałym podejściem.

Kolejnym krokiem jest skupienie się na ciągłym doskonaleniu procesu tworzenia oprogramowania. Oznacza to, że wysiłki programistów i operatorów komputerów typu mainframe powinny być konsekwentnie oceniane oraz rozliczane na podstawie wprowadzanych usprawnień, podobnie jak zespołów zajmujących się innymi platformami.

W badaniu przeprowadzonym przez BMC 59 procent respondentów zgłosiło wzrost liczby transakcji obsługiwanych przez aplikacje na komputerach typu mainframe w 2018 roku. Bez względu na to, jak zaawansowany jest front-end aplikacji, słabo zoptymalizowany kod wykonywany przez komputer typu mainframe spowoduje niską wydajność całej aplikacji.

Biorąc pod uwagę fakt, że komputery typu mainframe odgrywają kluczową rolę w realizacji współczesnych procesów cyfrowych, konieczne staje się nieustanne mierzenie i poprawianie szybkości, a także jego jakości i wydajności dostawy oprogramowania mainframe. Postawa kompromisowa (np. zakładająca, że większa szybkość doprowadzi do spadku jakości) jest postawą, która prowadzi do porażki. Nieustanne doskonalenie we wszystkich tych obszarach stanowi klucz do cyfrowego sukcesu – w działaniach usprawniających nie można pominąć żadnej platformy. Użytkownicy komputerów typu mainframe powinni być w stanie gromadzić i analizować dane behawioralne, którymi dysponują, aby skutecznie określić obszary do doskonalenia.

3. Promowanie kultury współpracy
W ciągu ostatnich kilkudziesięciu lat w organizacjach zakorzeniła się kultura izolacji zespołów zajmujących się komputerami typu mainframe. Tego rodzaju izolacja i przeświadczenie o wyjątkowości tych maszyn wśród zespołów IT stanowi znaczące ryzyko dla organizacji, które starają się dostarczać aplikacje obejmujące wiele platform, zapewniając przy tym wyższą jakość, szybkość oraz wydajność.

W szczególności dla  zespołów operacyjnych narzędzia dla nowego pokolenia opiekunów systemowych muszą być prostsze i łatwiejsze w użyciu. Muszą one jasno i intuicyjnie wykorzystywać pojawiające się trendy w środowisku mainframe i pomagać operatorom w podejmowaniu bardziej inteligentnych decyzji, dotyczących alokacji zasobów i kolejek zadań w przypadku intensywnych i krytycznych procesów.

Doskonałość cyfrowa wymaga otwartej współpracy pomiędzy programistami i zespołami operacyjnymi obsługującymi komputery typu mainframe. Zwinne programowanie w przypadku takich maszyn otwiera wiele interesujących możliwości dla zespołów operacyjncyh, ponieważ dzięki nich mogą uczestniczyć w scrumach, demach sprintowych i innych procesach. Wspieranie lepszej współpracy wymaga jednak również towarzyszącej jej zmiany kulturowej – zbudowania środowiska, w którym pracowników nie obarcza się winą i w którym zachęca się do przejrzystości, wspiera wysiłki ukierunkowane na naukę oraz skupia się na eliminowaniu ograniczeń.

Prawdopodobnie najważniejszym jest jednak fakt, że cyfrowa doskonałość wymaga również stałej współpracy z klientami. Klienci – zawsze niezadowoleni i wymagający czegoś więcej – powinni stanowić kompas organizacji, wyznaczający kierunek jej działań.

4. Wdrażanie automatyzacji
Zwiększanie automatyzacji, zarówno w zakresie rozwoju oprogramowania, jak i wśród zespołów operacyjnych, ma zasadnicze znaczenie dla zapewnienie zwinności i elastyczności komputerów typu mainframe. W pełni zautomatyzowane procesy, szczególnie w zakresie testowania, mają kluczowe znaczenie dla szybszej, częstszej promocji i wdrażania wysokiej jakości kodu.

Zaskakujące jest to, że kod uruchamiany na komputerach typu mainframe, odpowiedzialny często za realizację kluczowych procesów w wielu nowoczesnych aplikacjach, jest często pomijany w zautomatyzowanych procesach stosowanych w pozostałej części łańcucha narzędziowego DevOps. Organizacje mogą czerpać pełne korzyści tylko i wyłącznie wtedy, jeśli wdrożą w pełni zautomatyzowane procesy w sposób jednolity na wszystkich platformach, których dotyczą działania DevOps. W innym wypadku w łańcuchu zawsze będą istniały przeszkody i ograniczenia, które będą prowadzić do utrudnień w rozwoju kodu.

W przypadku zespołów obsługujących komputery typu mainframe, automatyka może pomóc w odizolowaniu pracowników od ich złożonej struktury, co może pozwolić im na skalowanie środowiska zgodnie z zapotrzebowaniem, jednocześnie minimalizując niepotrzebne koszty i utrzymując niskie wymagania w zakresie wykwalifikowanych pracowników. Jednym z przykładów jest automatyczne planowanie zadań w sposób, który bierze pod uwagę ich koszt. Pomaga to zaoszczędzić pieniądze na kosztach licencji, które mogą znacząco wzrosnąć wraz z podwyższeniem wolumenu transakcji.

5. Rozwój umiejętności wyszukiwania i naprawiania problemów
Współczesne zespoły operacyjne przyjmują na siebie uciążliwą odpowiedzialność za próbę oswojenia potwora IT, który z każdym dniem zyskuje coraz więcej macek. W miarę wzrostu złożoności infrastruktury, wiążącego się z koniecznością obsługi coraz większej liczby użytkowników oraz procesów, zwiększa się też liczba miejsc, w których mogą wystąpić problemy wpływające na wydajność i szybkość działania aplikacji.

Możliwości w zakresie precyzyjnej optymalizacji i diagnostyki działania komputerów typu mainframe staje się niezwykle ważna, ponieważ tego rodzaju maszyny coraz częściej są delegowane do obsługi i przetwarzania danych na potrzeby aplikacji mobilnych i internetowych – wykorzystywanych przez klientów – których nieustanne aktualizacje mogą wpływać w znaczący sposób na połączenia z bazami danych i aplikacjami uruchamianymi na tych komputerach.

Skuteczniejsze narzędzia oraz nowa, rozszerzona misja, oparta na wspieraniu organizacji oraz ściślejszej współpracy z zespołami programistycznymi wymagają, by zespoły obsługujące komputery typu mainframe miały dostęp do dokładniejszych danych oraz szerokiego zakresu informacji. Tego rodzaju dane umożliwiają im agresywne monitorowanie swojego środowiska, co pozwala na wyszukiwanie i naprawianie problemów wpływających na ogólną wydajność i koszty usług cyfrowych.

Dysponując odpowiednimi informacjami, zespoły mogą wyszukiwać i identyfikować zapytania SQL oraz usługi systemowe Db2 powodujące nadmierne wykorzystanie procesorów, długie czasy oczekiwania lub awarie aplikacji. Dzięki danym mogą nawet wskazać konkretne zasoby, procedury i zapytania, które powodują te problemy, nawet na poziomie kodu źródłowego.

6. Wykorzystywanie chmury tam, gdzie jest to uzasadnione
Podsumowując – pomimo tego, że chmura może nie oferować takich samych możliwości jak komputery typu mainframe w zakresie przetwarzania kluczowych transakcji, nadal stanowi ważny element układanki. Wielu organizacjom udało się osiągnąć ogromne sukcesy dzięki podejściu opartemu na dwóch platformach – usługach w chmurze oraz lokalnych komputerach typu mainframe, pracujących ramię w ramię, obsługujących aplikacje i procesy, do których nadają się najlepiej.

Podsumowanie
Koncepcja mainframe nie odchodzi do lamusa i ma to swoje uzasadnienie biznesowe, jednak czekają ją znaczące zmiany. Organizacje i ich zespoły IT muszą zadbać o to, by te maszyny zaczęły działać na równych prawach w ramach ich infrastruktur. Kluczem do tego jest wprowadzanie komputerów typu mainframe do głównego nurtu poprzez modernizację kultury, procesów i narzędzi. Opisane powyżej kroki są niezbędne, aby zwiększyć ich zwinność i elastyczność, co pozwoli organizacjom nieustannie czerpać korzyści z niezastąpionych możliwości oferowanych przez te platformy.

Sprawdź także

Zadzwoń +48 22 657 0438

lub wypełnij formularz, a skontaktujemy się z Tobą!

Nazywam się
i jestem zainteresowany
Proszę o kontakt pod adresem
lub numerem tel.