Program C++ W tablicy zostaje zapisany cały angielski alfabet, następnie program losuje 5 liter i buduje z nich wyraz, na ekranie mają pojawić się 4 wyrazy zbudowane z 5 liter.
Wewnętrzne nośniki pamięci – dyski HDD i SSD, karty pamięci i dyski sieciowe – odpowiadają nie tylko za przechowywanie danych, ale i wpływają na wydajność pracy Twojego komputera. Natomiast dyski zewnętrzne pozwalają na przenoszenie danych z urządzenia na urządzenie.
Mniejsze dostępne pojemności pamięci masowej: Od 2020 roku powszechne pojemności pamięci masowej dysków SSD dla konsumentów to: 128GB, 256GB, 512GB, 1TB i 2TB. 4TB jest dostępne w kilku samodzielnych modelach SSD, natomiast 8TB pojemności pamięci masowej SSD można znaleźć w komputerach klasy high-end, takich jak Apple Mac Pro.
Pierwszą rzeczą, którą należy wziąć pod uwagę przy wyborze karty pamięci, jest ustalenie, jakiego typu karty wymaga urządzenie. Zwykle informację tę można znaleźć w instrukcji obsługi lub na stronie producenta. Zazwyczaj podaje on również, jakiego standardu SD wymaga urządzenie. Karty SD i microSD mają te same standardy: SD
Dysk zewnętrzny – Poradnik zakupowy, ranking i test Seagate Expansion Portable 1TB to dysk zewnętrzny o pojemności 1 TB, który pozwala przechowywać wiele różnych plików, zabezpieczając je przed uszkodzeniem. Akcesorium łatwo się obsługuje, jest szybkie i niezawodne. Wielu osobom podoba się wygląd dysku, poza tym jest to lekki produkt, do tego mały, więc […]
1. Do czego służą nośniki pamięci masowej? 2. Podaj 3 przyklady aktualnie stosowanych nosnikow pamieci masowej. 3. W co powinien byc wyposażony komputer, aby mozna bylo odczytac plytę CD? 4 W jakich jednostkach podawane sa rozmiary programow oraz pojemność nosnikow pamieci? Proszę o szybka odpowiedz :):):):):)
Wydajne rozszerzenie pamięci masowej dyskami SATA 6 Gb/s obsługujące do 64 Gb/s. Używaj z wyjątkową, wieloportową kartą rozszerzeń PCle SATA QXP firmy QNAP do szybkiej rozbudowy pamięci masowej NAS i bezproblemowego tworzenia kopii zapasowych. Osiągnij wyższe prędkości transferu niż eSATA i USB dzięki wysokiej prędkości
FeTdsK. Bity się nie kurczą, ale rozmiar ich nośników z pewnością tak. W wyścigu do wbudowania jak największej pamięci w setki urządzeń od laptopów, przez PDA, odtwarzacze MP3, po aparaty cyfrowe, producenci wkładają coraz większe pojemności w coraz mniejsze obudowy. Bity się nie kurczą, ale rozmiar ich nośników z pewnością tak. W wyścigu do wbudowania jak największej pamięci w setki urządzeń od laptopów, przez PDA, odtwarzacze MP3, po aparaty cyfrowe, producenci wkładają coraz większe pojemności w coraz mniejsze obudowy. Użytkownicy notebooków cierpiący na brak wolnego miejsca mogą sporo zyskać dzięki nowemu twardemu dyskowi typu PC Card o symbolu MK2001MPL, który jak na razie dostępny jest tylko w Stanach Zjednoczonych za 599 dolarów. Napęd o prędkości obrotowej 4200 mieści 2 GB danych; bardziej pojemne modele są już w drodze. Jeśli potrzebujesz małego zewnętrznego napędu, przyjrzyj się urządzeniu Pockey firmy Flotec. Ten dysk o wymiarach 12,7 x 7,6 x 1,2 cm podłączany jest do portu USB - instalacja odbywa się więc bezproblemowo. Model 6 GB kosztuje w Stanach 250 dolarów, wersja 20 GB - 399 dolarów. Pockey sprawia wrażenie odpornego na niewłaściwe traktowanie, ale ze wszystkimi twardzielami powinno się obchodzić ostrożnie. PocketDrive firmy LaCie jest zbliżony do Pockeya, lecz droższy, ponieważ zawiera dwa porty: USB i FireWire. Kosztuje od 399 (wersja 10 GB) do 799 dolarów (30 GB). Nowa firma DataPlay uważa, że twarde dyski nie są jedynymi napędami rotacyjnymi wartymi miniaturyzacji. Jej płyty DVD wielkości pięciozłotówki mogą w tym roku wywołać duże poruszenie. Jeszcze przed nadejściem wiosny producenci napędów powinni zaprezentować urządzenia wykorzystujące malutkie krążki. Płyty mieszczą 250 MB danych na stronie, lecz zapisać je można tylko raz. Przepychanki standardów Rosnąca popularność urządzeń naręcznych stała się motorem napędowym całej branży małych nośników pamięci masowej. Rządzą pamięci flash, lecz mnogość rywalizujących ze sobą standardów denerwuje prawie wszystkich. Najczęściej spotykanymi modułami pamięci flash są karty CompactFlash o wymiarach 4,3 x 3,5 cm. Popularność zyskują też karty SmartMedia o podobnym rozmiarze, lecz nieco cieńsze i tańsze. Oba formaty oferują pojemności od 8 do 300 MB, lecz CF zapewnia własną elektronikę wejścia/wyjścia, podczas gdy SM opiera się na urządzeniu odczytującym. To ostatnie rozwiązanie zrzuca na producentów urządzeń ciężar opracowania obsługi wyższych pojemności lub przynajmniej zapewnienia aktualizacji poprzez oprogramowanie. To nie wszystko. Urządzenia kieszonkowe doprowadziły do powstania jeszcze mniejszego formatu flash, zwanego MultiMedia lub MMC (MultiMediaCard). Ma on rozmiar znaczka pocztowego i oferowany jest w pojemnościach od 8 do 64 MB. Jest drogi, ale przy tym na tyle mały, na ile pozwala dzisiejsza technologia. W połowie roku powinna być dostępna wersja Secure Digital - nieco grubsza odmiana MMC zawierająca szyfrowanie i zabezpieczenia. Tymczasem gigant Sony promuje własne moduły Memory Stick. Przyciągają wielkością zbliżoną do listka gumy do żucia, ale czy potrzebny nam kolejny standard jednej firmy? Obecnie dostępne są modele od 8 do 64 MB, a wkrótce pojawi się wersja 128 MB. Do tej mieszanki formatów dochodzi Microdrive firmy IBM. Jest to prawdziwy twardy dysk, lecz mierzy jedynie 0,5 x 3,5 x 4,3 cm, waży około 15 g, a jego pojemność dochodzi do 1 GB. Model 340 MB kosztuje 1882 zł, wersja 1 GB - tylko 3270 zł, toteż koszt 1 MB w Microdrive jest około czterokrotnie niższy niż w pamięci flash. Ponadto specjalny adapter pozwala umieścić napęd w gniazdach PC Card. Niestety, urządzenie ma profil CF+, przez co tylko nowsze urządzenia obsługujące trochę grubszy format CF mogą z niego korzystać. Zdaniem firmy analitycznej International Data Corporation, trudno ocenić, kiedy ten zatłoczony rynek standardów zacznie się przerzedzać. Nietrudno przewidzieć, że CF i SM będą nadal dominować w większych urządzeniach takich jak aparaty cyfrowe, lecz MMC i może Memory Stick zadomowią się w małych urządzeniach przenośnych. Pamięć obrazowa Naukowcy na całym świecie pracują nad technologiami zapisu holograficznego - do niedawna wymysłu science-fiction - który wykorzystuje lasery i domieszkowane kryształy. Gdy tego typu technologia stanie się użytkowa, co nastąpi zapewne w ciągu kilku lat, jej pojemność i przepustowość wyrzucą dzisiejszą pamięć magnetyczną do lamusa tak, jak to stało się niegdyś z kartami perforowanymi (chyba że tradycyjnie zostaną użyte na czas wyborów prezydenckich w Stanach Zjedn.). Na razie ostrożnie wybieraj nośniki pamięci i ciesz się, że duże pojemności dostępne są w tak małych i lekkich postaciach.
Twarde dyski coraz częściej stanowią wąskie gardło w systemach IT. Jednocześnie obserwujemy spadek cen pamięci flash. Dlatego w centrach danych zaczynają pojawiać się półprzewodnikowe nośniki SSD, zwiększające wydajność aplikacji czy niezawodność. Jednak koszty inwestycyjne są wciąż wysokie, a nie w każdym zastosowaniu ta technologia wypada lepiej niż HDD. Dlatego należy z rozwagą podchodzić do każdego wdrożenia. Dyski twarde w ciągu ostatnich dekad stały się wszechobecne, ale ich rola spada. Owszem, wciąż obserwujemy, że jest jeszcze przestrzeń do rozwoju technologii HDD i nie chodzi wcale o większe pojemności czy szybkość transferu, ale całkiem nowe rozwiązania. Przykładem są dyski Ultrastar HE 6 o pojemności 6 TB firmy HGST. Powietrze zastąpiono w nich helem, co według producenta pozwoliło osiągnąć 50-procentowy wzrost pojemności (dysk ma 7 talerzy), przy jednoczesnym ograniczeniu poboru prądu o 23 % i zmniejszeniu wagi o 40 %. Mimo takich nowinek architektura chmurowa i narastająca fala danych płynących z urządzeń mobilnych w połączeniu z coraz szybszymi i pojemniejszymi nośnikami SSD sprawiają, że dyski twarde postrzega się jako technologię odchodzącą w przeszłość. Z jednej strony wymagania dotyczące bardzo szybkiego dostarczania danych w środowiskach chmurowych stawiają technologię SSD jako kandydata do budowania korporacyjnych macierzy. Z drugiej strony, nośniki flash są bardzo przydatnym dodatkiem do klasycznych dysków twardych. Taki tandem pozwala na budowanie bardzo skalowalnych rozwiązań macierzowych. Wprowadzenie technologii Solid-State umożliwia wyposażenia macierzy w bardzo szybki cache czy mechanizmy typu data off-load. Daje to organizacjom nieosiągalne dotychczas możliwości w zakresie tworzenia wielowarstwowych środowisk, którego mogą być automatycznie dostosowywane do bieżących wymagań wydajnościowych i pojemnościowych. Zobacz również:Nowe dyski do serwerów trafiają na rynek - mają 22 TB pojemności Niewielka część przedsiębiorstw, które będą analizować duże zbiory danych (Big Data), będzie wymagać pełnej dostępności do najszybszych rozwiązań. Jednak z reguły organizacje, które optują za rozwiązaniami SSD, przeinwestują, ponieważ nie będą w stanie w pełni wykorzystywać możliwości tych nośników. Dane nie są takie same Błędem, który popełniają orędownicy SSD jest założenie, że wszystkie dane są takie same. Owszem, obecny przyrost ilości danych jest generowany głównie w procesach obsługi usług internetowych i transakcyjnych, ale nie jest to pełen obraz współczesnego środowiska danych. Świetnym przykładem nierówności między zbiorami danych jest cyfrowy monitoring wideo. W agencjach rządowych, urzędach, bankach czy biurach 24 godziny na dobę rejestruje się obraz z newralgicznych miejsc, co generuje popyt na duże przestrzenie dyskowe, nawet przy stosowaniu kompresji, deduplikacji i innych technik ograniczających ilość danych. Jeśli już średniej wielkość organizacja potrafi wygenerować petabajt nagrań z monitoringu, nie ma mowy o zastosowaniu tutaj nośników SSD czy przechowywaniu w chmurze publicznej. Dlatego przed inwestycją w macierz SSD należy sobie odpowiedzieć na pytane, czy kilkudziesięciokrotny wzrost wydajności przyniesie skalę korzyści uzasadniającą duże nakłady inwestycyjne. Dobra wiadomość jest taka, że zróżnicowanie nośników i stały napływ nowych, zintegrowanych platform dyskowych łączących różne techniki przechowywania danych daje organizacjom duże pole do manewru w zakresie optymalizacji ich środowiska pamięci masowych. Cztery scenariusze Flash jako pamięć masowa może być zastosowana nie tylko w macierzach. Architekci systemów przechowywania danych wymyślili różne sposoby na zwiększenie wydajności aplikacji poprzez implementację tej technologii. Warto je zrozumieć, aby móc samodzielnie ocenić poszczególne opcje. Pomijając specyficzne rozwiązania, jak IBM FlashSystem, nośniki flash występują w trzech podstawowych formach: nośniki SSD - kształtem obudowy przypominają twardy dysk, ale wewnątrz nie ma ruchomych części. SDD emuluje działanie HDD, co pozwala łatwo włączyć ten rodzaj pamięci masowej do istniejących systemów serwerowych i macierzowych, bez stosowania specjalistycznych PCIe - montowane w standardowych gniazdach w serwerach bądź macierzach czy kontrolerach macierzowych. Emulują zachowanie tradycyjnych kart pamięci, wykorzystując sterownik cache jako SSD - aby skomplikować sytuację, niektóre karty PCIe emulują napędy SSD. Poza kwestią ceny i nietypowego formatu to podejście powoduje też inne implikacje, jak dostępność kart typu hot-swap. Jest kilka sposobów wykorzystania tych „klocków” w serwerach i macierzach. Wybrane podejście determinuje, gdzie w infrastrukturze zostanie wykorzystana pamięć flash i jakie korzyści przyniesie aplikacjom. Są cztery sposoby umiejscowienia pamięci flash. Flash jako cache w serwerze W tym scenariuszu flash jest podłączony do korporacyjnego systemu przechowywania danych jako pamięć cache przechowująca aktywne dane blisko procesorów serwerowych. Wymaga to zaawansowanego oprogramowania pamięci cache, ale pozwala przekształcić nośniki SSD bądź karty PCIe w rozszerzenie pamięci cache. Przykładowo, takie rozwiązanie może służyć do obsługi krytycznych aplikacji, które charakteryzują okazjonalnymi, nieprzewidywalnymi wzrostami obciążenia, np. systemy transakcyjne OLTP czy rozwiązania do analityki danych. Wprawdzie w ten sposób uzyskuje się najszybszy dostęp do danych w pamięci cache, ale wiąże się to jednocześnie z koniecznością dodatkowego zarządzania serwerem. Flash jako cache w macierzy Zamiast montować pamięć flash w serwerze, można ją podłączyć bezpośrednio do macierzy i jednocześnie zainstalować oprogramowanie do tieringu. Takie podejście wprowadza dodatkową warstwę pamięci masowej, do której zostaną automatycznie przeniesione z dysków twardych najczęściej używane dane. Jest to świetny sposób na zwiększenie szybkości odczytu danych przez wszystkie serwery mające dostęp do macierzy dyskowej. Wprawdzie opóźnienia będą większe niż w przypadku użycia pamięci flash w serwerze, ale za to nie będzie problemu z czyszczeniem pamięci podręcznej w momencie restartu serwera. Ta metoda przyspiesza odczyt, natomiast zapis może być wolniejszy niż na dyskach HDD, ponieważ zapisywanie na nośnikach flash wymaga przeprowadzenie mało wydajnego cyklu kasowania. Należy też zwrócić uwagę na dobranie odpowiedniej wielkości nośnika flash, w przeciwnym razie może się on szybko zapełnić.
Twarde dyski są wolne i znacznie szybsze nie będą. Z tego powodu nasze komputery nie działają tak szybko, jak by mogły. Procesor, zamiast wykonywać zlecone mu zadania, musi czekać na dane, których dysk nie jest mu w stanie dostarczyć w krótkim czasie. Przekonywanie, że jest inaczej, to mydlenie oczu nieistotnymi informacjami. Czy SSD jest wybawieniem z tej sytuacji? Aby się o tym przekonać warto poznać czym w rzeczywistości jest wydajność napędów dyskowych. Trochę historii… W 1956 r. firma IBM publicznie zaprezentowała komputer IBM RAMAC 305. Była to maszyna wyjątkowa ze względu na fakt zainstalowanej w niej pamięci masowej zbudowanej z rotujących, magnetycznych talerzy. Komponent ten miał nazwę IBM 350 i był to pierwszy twardy dysk. Wywołało to rewolucję w informatyce. Wcześniej dane przechowywano najczęściej na kartach perforowanych. W dużych firmach ich ogromne ilości były układane w skrzyniach (tub files). Gdy zachodziła konieczność użycia danych (np. wystawienie faktury), pracownik ręcznie odszukiwał odpowiednie karty (dane klienta i kupowanych produktów), ładował je do czytnika i uruchamiał właściwy program (tworzenie faktury). Następnie zabierał je oraz ewentualnie nowe karty wynikowe (faktura) i odkładał w tub file. Aby optymalnie wykorzystać cenny czas pracy komputera zlecenia wykonania obliczeń zbierane były w większe paczki. Karty układano w sekwencje zgodnie z kolejnością zleceń w paczce i dla wszystkich uruchamiano przetwarzanie. Dzięki temu nie trzeba było biegać między tub files a komputerem za każdym razem, jak pojawiło się nowe zlecenie. Ten wsadowy tryb pracy (batch), mimo, że jest efektywny, ma jedną istotną wadę – oczekiwanie na wynik wymaga cierpliwości. Głównym zadaniem inżynierów IBM przy tworzeniu RAMAC 305 było stworzenie nowego rodzaju systemu, którego podstawą jest uzyskiwanie rezultatów działania bezpośrednio po jego zleceniu. Z czasem taki tryb pracy z komputerem przyjął nazwę OLTP – OnLine Transaction Processing. Rozważano także użycie technologii taśmowej. Stosowano ją wtedy w systemach komputerowych już od pięciu lat. Prędkość sekwencyjnych zapisów i odczytów na taśmy była ponad 2x większa niż w przypadku IBM 350. Jednak próby losowego dostępu do danych nie przynosiły dobrych rezultatów. Podobnie jak w przypadku tub files, taśmy można było efektywnie używać tylko do przetwarzania w trybie wsadowym. Pomysł na umieszczenie danych na rotujących magnetycznych talerzach okazał się najlepszy. Zastosowanie IBM 350 umożliwiło szybki, losowy dostęp do danych. Zmieniło to sposób pracy z komputerem. Operator IBM RAMAC 305 mógł uruchomić program dla dowolnych danych w dowolnym czasie i od razu uzyskać wynik obliczeń. Taki sposób dostępu do informacji był tak istotny, że od niego wzięła się właśnie nazwa RAMAC – Random Access Method of Accounting and Control, czyli Losowa Metoda Dostępu dla Księgowości i Kontroli. Fizyczność dysku Ten historyczny rys miał na celu pokazanie jakie były powody powstania dysków twardych. Mimo, że od tamtych wydarzeń minęło już ponad pół wieku, są one nadal aktualne. Znacznie zwiększyła się jednak ilość danych oraz nasze wymagania. Pracując z komputerem oczekujemy natychmiastowego wyniku naszych operacji. Jeżeli do ich wykonania wymagane jest skorzystanie z informacji zapisanych na dysku, powinny być one szybko odszukane i dostarczone. Nie chcemy też czekać na zapisanie wyników naszej pracy. Aby sprostać tym oczekiwaniom dysk musi kręcić się z wielką prędkością, a jego głowica szybko i precyzyjnie lokalizować sektory szerokości zaledwie kilku atomów. Jest to konieczne dla uzyskania wysokiej wydajności i pojemności. Budowa dysków twardych wymaga od ich konstruktorów przełamywania kolejnych fizycznych barier. Niestety większość z nich jest już niemożliwa do sforsowania. W 2000 roku firma Seagate zaprezentowała pierwszy dysk kręcący się z prędkością 15 tys. obrotów na sekundę (RPM). Dzisiaj jest to nadal najlepszy wynik, dostępny tylko w najdroższych modelach. Większość dostępnych na rynku HDD ma 7200 RPM. Ruchy głowicy w najszybszym aktualnie dysku są tylko o 25% szybsze od wspomnianego Seagate’a. Oznacza to, że realna wydajność dysków twardych w ciągu 9 lat wzrosła o 16%. Jest to fakt, którym producenci nie chcą się chwalić i w sumie nie ma co się dziwić, jako że przemilczanie tej prawdy jest wymogiem współczesnego marketingu, podobnie jak eksponowanie nieistotnych parametrów. W przypadku HDD przykładem takiej nieistotnej informacji jest maksymalna prędkość transmisji danych wyrażana w MB/s. Mydlenie oczu Podawana przez producentów maksymalna prędkość transmisji danych jest z roku na rok coraz większa. Wynika to głównie z coraz szybszych interfejsów (SATA, SAS, FC). Ich możliwości ciągle się zwiększają, co jest związane z postępem w dziedzinie elektroniki. Nie oznacza to bynajmniej, że jednocześnie rośnie wydajność dysku. Do osiągnięcia wyników transferu prezentowanych w specyfikacjach niezbędne jest wykonanie testu, który nie ma nic wspólnego z rzeczywistością. W tym celu generowany jest sekwencyjny strumień danych złożony w wielkich bloków (1, 2, 4 MB). Jest to dobra metoda na sprawdzenie mocy napędów taśmowych, które są przeznaczone do obsługi sekwencyjnych strumieni danych. Nie sprawdza się jednak w przypadku dysków, których główne przeznaczenie to udostępnianie danych w sposób losowy. Aby poznać wydajność HDD trzeba sprawdzić jak będzie on sobie radził w warunkach, w których najczęściej przyjdzie mu pracować. Parametrem, który to najlepiej obrazuje, jest średnia ilość losowych operacji zapisu/odczytu na sekundę (IOPS). Wartości tej nie można znaleźć w specyfikacjach dysków twardych. Są tam jednak dostępne informacje, dzięki którym łatwo go obliczyć samodzielnie – prędkość obrotowa dysku (RPM) i średni czas pozycjonowania głowicy (average seek time). Parametry te określają generowane przez dysk opóźnienia w dostępie do danych. Cała reszta danych dostarczanych przez producentów nie jest istotna dla wydajności. Dotyczą one elektroniki, a w porównaniu z elementami mechanicznymi jest ona dużo szybsza. IOPS to informacja o tym, ile razy w ciągu sekundy dysk jest w stanie ustawić głowicę nad zadanymi sektorami. W tym celu trzeba obliczyć ile średnio trwa pojedynczy losowy dostęp do danych (average access latency). Jest to równe sumie opóźnień generowanych przez obroty dysku (average rotation latency) i ruch głowicy (average seek latency): average rotation latency = 60s / RPM / 2 average seek latency = (read seek time + write seek time) / 2 average access latency = average rotation latency + average seek latency Teraz wystarczy tylko wyliczyć ile operacji I/O przy takim opóźnieniu jest w stanie wykonać się w ciągu sekundy i otrzymujemy nasze średnie IOPS dla operacji losowych: average random IOPS = 1000ms / average access latency Przykład: dysk Seagate Barracuda 1TB 7200 RPM read seek time: 8,5 ms write seek time: 9,5 ms avarage rotation latency 60s / 7200 / 2 = 4,2ms avarage seek latency (8,5ms + 9,5ms) / 2 = 9ms average access latency 4,2ms + 9ms = 13,2ms average random IOPS 1000ms / 13,2ms = 75,75 Użycie takiego kalkulatora ułatwia liczenie. Dopiero znając wartość parametru IOPS można wyliczyć prędkość transferu danych dla różnych wielkości bloku: 75,75 * 4 kB = 303 kB 75,75 * 8 kB = 606 kB 75,75 * 32 kB = 2424 kB 75,75 * 128 kB = 9696 kB 75,75 * 512 kB = 38784 kB 75,75 * 1 MB = 75,75 MB Jak widać przy losowych operacjach, dopiero bardzo duże wielkości I/O pozwalają na uzyskanie szybkiego transferu danych. Wiemy, że w rzeczywistości komputery operują głównie małymi blokami. Dlatego też przy codziennej pracy trudno zaobserwować prędkości większe od 20 MB/s. Im więcej IOPS, tym wyniki będą lepsze. Problem jest taki, że najszybszy twardy dysk średnio wykonuje 186,92 losowych IOPS i raczej nie ma perspektyw na polepszenie tego wyniku. Od czasu IBM 350 pojemność dysków wzrosła 476625 razy (4,4 MB vs 2 TB). Wydajność tylko 112 razy (1,66 IOPS vs 186,92 IOPS). Niecałe 200 IOPS przy tak dużej ilości danych magazynowanych na pojedynczym HDD to bardzo mało. Już od dawna sposobem na zwiększenie komfortu pracy z dyskiem jest wykorzystanie pamięci półprzewodnikowej. Stosuje się ją jako cache w wielu miejscach: system operacyjny, kontroler, macierz, a także w samym HDD. Odciąża ona dysk. Dzięki temu operacje na najczęściej używanych obszarach danych są wykonywane znacznie szybciej. Im więcej pamięci podręcznej tym lepsze są efekty. Ta zasada była podstawą dla powstania rozwiązań SSD – Solid State Drive, czyli pamięci masowej pozbawionej ruchomych elementów mechanicznych. My name is Solidny, Stan Solidny Dane w tego typu rozwiązaniach przechowywane są nie na materiale magnetycznym, a w pamięci półprzewodnikowej. Warunkiem, jaki musi ona spełniać, jest utrzymanie stanu komórek po odłączeniu zasilania. Dla komputera prezentują się jako zwykły twardy dysk, co sprawia, że ich implementacja jest łatwa. SSD staje się coraz bardziej popularne. Dużą zasługę w tym ma dynamiczny wzrost produkcji i sprzedaży pamięci flash. Krótko mówiąc, technologia ta stała się na tyle tania, że używanie jej jako storage jest już opłacalne. Najbardziej znaną postacią SSD są pendrive’y USB. Idealne do przenoszenia danych między komputerami. Zastąpiły zawodne i mieszczące mało danych nośniki magnetyczne (dyskietki, zipy, taśmy). Kolejnym krokiem w rozwoju Solid State Drive było zastosowanie tej technologii w komputerze jako podstawowej pamięci masowej. W tym celu powstała ich nowa forma – kości flash zamknięte w obudowie standardowego dysku 3,5″, 2,5″ lub 1,8″. Do komunikacji z komputerem wykorzystują typowe interfejsy – SATA, SAS, FC. Pamięci flash w porównaniu z magnetycznymi talerzami mają wiele zalet: brak opóźnień wynikających z ruchu elementów mechanicznych dużo większa odporność na wstrząsy, upadki itp. zdecydowanie niższy pobór prądu bezgłośna praca czas odpowiedzi mniejszy o rząd wielkości (ms vs ns) brak konieczności chłodzenia napędu Na wydajność przekłada się to w postaci rewelacyjnej obsługi losowych operacji odczytu. Problemy z pisaniem W przypadku losowych zapisów nie jest już tak kolorowo. Wynika to z konstrukcji pamięci flash. Powstała ona jako pamięć o zapisie sekwencyjnym. Jej początkowe przeznaczenie to przestrzeń na firmware’y i BIOS’y gdzie taki tryb pracy sprawdza się znakomicie. Flash nie umożliwia bezpośredniej zmiany zawartości komórek pamięci. W tym celu należy wykonać najpierw operację kasowania. Dodatkowo nie można tego zrobić na pojedynczej komórce, tylko na całym bloku (erase segment). Wyklucza to losowy dostęp dla zapisu danych. Zapewnienie takiej funkcjonalności wymaga dodatkowych zabiegów. Każdy producent SSD realizuje to w inny sposób, różnymi algorytmami i z wykorzystaniem różnych dodatkowych komponentów sprzętowych. Brak standardu występuje również w przypadku sposobów radzenia sobie z drugą wadą pamięci flash, jakim jest jej stosunkowo krótka trwałość. Operacja kasowania segmentu komórek wymaga użycia wysokiego napięcia. Twórca tej technologii porównywał to z błyskiem lampy fotograficznej (flash). Efektem takiego traktowania półprzewodników jest degradacja ich właściwości. Zależnie od typu kości, prawidłowe funkcjonowanie komórki szacowane jest na od kilkudziesięciu tysięcy do kilkudziesięciu milionów cykli kasowania-zapisu. Jest to wystarczające dla pendrive’ów wykorzystywanych jako pamięć przenośna. Bez dodatkowych mechanizmów te liczby mogą się jednak okazać za małe w przypadku przestrzeni roboczych, na których zapisy są wykonywane bardzo intensywnie. Jak poznać SSD? Pamięć masowa oparta na półprzewodnikach to ciągle nowość. Aktualnie kilkanaście firm oferuje napędy SSD. Każda z nich ma swoje pomysły na ich budowę. Nie zawsze są one dobre. Różnice w jakości i wydajności są znaczne, a wybór właściwego rozwiązania jest trudny. O ile dla dysków twardych możliwe jest obliczenie mocy produktu na podstawie jego specyfikacji, to w przypadku SSD takiej możliwości już nie ma. Jedyny sposób na poznanie możliwości konkretnego produktu to właściwie przeprowadzone testy wydajnościowe. Wynikiem takich benchmarków będzie oczywiście średnia liczba losowych operacji. Część producentów publikuję te informacje. Trudno jednak uznać ich rzetelność skoro nie wiadomo, w jaki sposób zostały one obliczone/zmierzone. Organizacja Storage Performance Council, zajmująca się testowaniem rozwiązań pamięci masowej, póki co też nie opublikowała jeszcze wyników dla SSD. W takiej sytuacji pozostaje wykonać taki benchmark samodzielnie. Uzyskanie wiarygodnych wyników jest uzależnione od prawidłowego wykonania testów. W tym celu powinny zostać spełnione następujące warunki: Przed testami cała powierzchnia SSD kilkakrotnie zapisana losowymi danymi – Jakość algorytmów odpowiedzialnych za losowy zapis i przeciwdziałających utracie danych można poznać dopiero wtedy, gdy wartość każdej z komórek pamięci flash zostanie kilkakrotnie zmieniona. Osobne testy dla odczytu, zapisu i mieszanego strumienia I/O – W przypadku HDD zapis trwa tylko odrobinę dłużej niż odczyt. Do określenia wydajności wystarcza w tym wypadku tylko jeden parametr – IOPS. Duża różnica w czasie wykonania tych operacji na urządzeniach SSD wymusza zebranie aż trzech wyników: średnia ilość losowych operacji odczytu (OPS) – 100% odczytów; średnia ilość losowych operacji zapisu (IPS) – 100% zapisów; średnia ilość losowych operacji odczytu/zapisu (IOPS) – 50% odczytów / 50% zapisów Operacje I/O wykonywane bezpośrednio na surowym urządzeniu – Testy na systemie plików (NTFS, EXT3, …) nie będą wiarygodne ze względu na cache systemowy. Każdy test powinien trwać kilka godzin – Napędy SSD to w dużej części skomplikowane algorytmy zapisane w firmware. Aby się przekonać czy działają prawidłowo dobrze jest je sprawdzić pod maksymalnym obciążeniem w długim okresie czasu. Niedopasowana wielkość operacji I/O (un-aligned I/O) – Aktualnie pamięć Flash do zapisu używa 4kB segmentów danych. Pisanie mniejszym blokiem wymusza uruchomienie algorytmu, który najpierw odczyta zawartość całego segmentu, zmodyfikuje go nowymi danymi, a na koniec zapisze w docelowym miejscu (read-modify-write). Trwa to znacznie dłużej niż zapis całego segmentu. Testy można wykonać różnymi programami. Muszą one jednak mieć możliwość: generowania zarówno sekwencyjnego jak i losowego strumienia danych regulacji stosunku operacji odczytu do zapisu ustawienia różnych wielkości operacji I/O użycia surowych urządzeń określenia współczynnika trafień w cache Wszystkie te funkcjonalności ma aplikacja Vdbench. Jest to oprogramowanie napisane w języku Java co sprawia, że można je używać w różnych systemach operacyjnych i platformach sprzętowych. Przebieg testu przedstawiany jest w sposób tekstowy, ułatwiający interpretację wyników i tworzenie wykresów. Vdbench jest dostępny na zasadach wolnego oprogramowania. Na koniec… Historia HDD rozpoczęła się ponad 50 lat temu. Dzisiaj to urządzenie powszechne. Jest obowiązkowym elementem niemal każdego komputera. Kręci się w iPod’ach, kamerach, telewizorach… Znacząca większość informacji i wiedzy ludzkości jest magazynowana i udostępniana z dysków twardych. Technologia ta cały czas się rozwija. Dotyczy to jednak jedynie pojemności. Wydajność pozostaje bez zmian już od bardzo dawna. Mimo usilnych starań marketingu i reklamy, nie da się ukryć, że dysk jest “metalową kulą u nogi” współczesnych komputerów. Rozpowszechnienie rozwiązań Solid State jest szansą na znaczne polepszenie mocy pamięci masowej. Skok w wydajności przypomina przesiadkę z kart perforowanych na IBM 350. O ile o mocy HDD wiemy praktycznie wszystko, to wokół SSD ciągle jest mnóstwo tajemnic, spekulacji, nieprawdziwych lub nieaktualnych danych. Jednocześnie są to bardzo drogie rozwiązania. Część z dostępnych aktualnie produktów wydajnością nie odbiega od dysków twardych. Czasami okazuje się, że w realnych warunkach sprawują się one nawet gorzej. Inne rozwiązania sprawdzają się z powodzeniem nawet w macierzach. Na horyzoncie pojawiają się też nowe technologie pamięci półprzewodnikowych, które z czasem zastąpią niezbyt doskonały flash. Minie jeszcze parę lat zanim ta sytuacja się ustabilizuje. Prawdopodobnie pozostanie na rynku kilka firm, których napędy będą miały porównywalną wydajność. Wtedy wybór będzie równie prosty jak dziś w przypadku HDD. Póki co, aby nie wydać niepotrzebnie pieniędzy na produkt, który nie będzie spełniał naszych oczekiwań, pozostaje nam sprawdzać wyniki opisanych testów. Aktualnie są one trudno dostępne i szczątkowe. Ta sytuacja poprawi się wraz ze wzrostem popularności SSD. Niemniej, z pewnością Solid State Drive jest właściwym kierunkiem rozwoju pamięci masowej. Marek Wołynko, ekspert ds. pamięci masowych, Netia SA wmarow@
Dlaczego nośniki pamięci masowej mają coraz więcej pojemności? Bo te osoby, które tworzą nośniki pamięci mają coraz lepsze pomysły jak wbudować więcej Gigabajtów (GB). Myślę, że dobrze i licze na naj. ;)
dlaczego nośniki pamięci masowej mają coraz większe pojemności