Niech perypetie GitLaba będą nauczką dla wszystkich, że backup powinien być sprawny, a nie tylko być.
Jeśli coś może pójść źle, to pójdzie – tak brzmi jedno z Praw Murphy’ego i aż za dobrze opisuje to, co wydarzyło się na GitLabie. Ten internetowy menedżer repozytoriów boryka się od kilku godzin z niemałymi problemami.
Problem goni problem
Wszystko zaczęło się, gdy administrator GitLaba przez przypadek usunął nie to, co powinien, a konkretnie dość istotną bazę danych. Co gorsza, zorientował się dopiero wtedy, gdy z 310 GB pozostało zaledwie 4,5 GB.
Na szczęście GitLab, jak na porządną platformę przystało, robi kopie zapasowe. Niestety – zawiodły i one. Żaden z pięciu mechanizmów backupu nie okazał się niezawodny. Kopie zapasowe są albo nieaktualne, albo nieprawidłowe, albo też „gdzieś się straciły”.
Każdy może wyciągnąć nauczkę
Serwis The Register, który jako jeden z pierwszych poinformował o całej sprawie pisze, że „na świecie nie ma wystarczająco dużo twarzy i dłoni, by można było wykonać odpowiednią reakcję”. I trudno się nie zgodzić, ale jest też dobra strona całej sprawy.
Otóż każdy może wyciągnąć nauczkę z tej sytuacji. Niech problemy GitLaba będą dowodem na to, jak ważne jest nie tylko robienie kopii zapasowych, ale też upewnianie się (przynajmniej od czasu do czasu), że wszystko pod tym względem działa poprawnie.
GitLab nie tuszuje sprawy
To warto docenić, GitLab nie próbuje zamieść całej sprawy pod dywan. Wręcz przeciwnie – na żywo informuje o postępach w odzyskiwaniu utraconych danych. Jeśli macie ochotę, możecie śledzić Twittera albo transmisję na żywo na YouTube.
Jest też inna dobra wiadomość. GitLab poinformował, że skasowane zostały jedynie pliki bazy danych, a same repozytoria są w pełni bezpieczne.
Źródło: The Register, GitLab na Twitterze
Komentarze
5