news

info

teoria

praktyka

Sieci

sterowniki

download

słownik

linki

dodatki


Budowa Komputera    Technika Cyfrowa    Procesor    Pamięć RAM    Płyta Główna    Dysk Twardy    Karta Graficzna   Karta Dźwiękowa   Modem   Karta Sieciowa   Napędy Optyczne   Stacja Dyskietek   
Karta Telewizyjna    Monitor   Drukarki    BIOS    Obudowa    Systemy Operacyjne   

Pamięć RAM


Pamięć RAM DDR

Zasada działania

Układy pamięci RAM zbudowane są z elektronicznych elementów, które mogą zapamiętać swój stan. Dla każdego bitu informacji potrzebny jest jeden taki układ. W zależności od tego czy pamięć RAM jest tak zwaną statyczną pamięcią (SRAM-Static RAM), czy dynamiczną (DRAM-Dynamic RAM) zbudowana jest z innych komponentów i soje działanie opiera na innych zasadach. Pamięć SRAM jako element pamiętający wykorzystuje przerzutnik, natomiast DRAM bazuje najczęściej na tzw. pojemnościach pasożytniczych (kondensator). DRAM charakteryzuje się niskim poborem mocy, jednak związana z tym skłonność do samorzutnego rozładowania się komórek sprawia, że konieczne staje się odświeżanie zawartości impulsami pojawiającymi się w określonych odstępach czasu. W przypadku SRAM, nie występuje konieczność odświeżania komórek lecz okupione jest to ogólnym zwiększeniem poboru mocy. Pamięci SRAM, ze względu na krótki czas dostępu są często stosowane jako pamięć podręczna. Wykonane w technologii CMOS pamięci SRAM mają mniejszy pobór mocy, są jednak stosunkowo drogie w produkcji.

Budowa

Aby zorganizować komórki pamięci w sprawnie funkcjonujący układ, należy je odpowiednio zaadresować. Najprostszym sposobem jest zorganizowanie pamięci liniowo - jest to tak zwane adresowanie 2D. Do każdej komórki podłączone jest wejście, sygnał wybierania pochodzący z dekodera oraz wyjście. Nieco innym sposobem jest adresowanie przy użyciu tzw. matrycy 3D.Pamięć organizuje się tutaj dzieląc dostępne elementy na wiersze i kolumny. Dostęp do pojedynczego elementu pamiętającego można uzyskać po zaadresowaniu odpowiedniego wiersza i kolumny. Dlatego też komórka RAM obok wejścia i wyjścia musi dysponować jeszcze dwoma sygnałami wybierania, odpowiednio z dekodera kolumn i wierszy.Zaletą pamięci adresowanej liniowo jest prosty i szybszy dostęp do poszczególnych bitów niż w przypadku pamięci stronicowanej (3D), lecz niestety, przy takiej organizacji budowanie większych modułów RAM jest kłopotliwe. Dlatego też w przemyśle stosuje się zazwyczaj układy pamięci zorganizowanej w matrycę 3D, pozwala to na nieskomplikowane tworzenie większych modułów o jednolitym sposobie adresowania.

W komputerach PC procesor uzyskuje dostęp do danych zawartych w pamięci DRAM w pakietach o długości 4-bitów (z pojedynczego rzędu), które przesyłane są sekwencyjnie lub naprzemiennie (tzw. przeplot - interleave). Optymalną wydajność można osiągnąć wtedy, gdy procesor otrzymuje dane równocześnie z taktem systemowego zegara. Jednak przy obecnie stosowanej częstotliwości taktowania magistrali wymaganiom tym nie jest w stanie sprostać nawet bardzo szybka pamięć cache drugiego poziomu. Pomimo tego, że ostatnie trzy bity dostarczane są wraz z taktem zegara, to konieczność odpowiedniego przygotowania transmisji sprawia, że przed pierwszym bitem "wstawiony" zostaje jeden cykl oczekiwania. Taki sposób transferu danych można oznaczyć jako cykl 2-1-1-1.

Rodzaje pamięci RAM

Fast Page Mode (FPM RAM)

Czas dostępu wynosi zazwyczaj 70 lub 60 ns. Układy te charakteryzują się niską - jak na dzisiejsze czasy - wydajnością, dane przesyłane są jako seria 5-3-3-3 w cyklach pracy procesora. Sposób dostępu do komórek, zorganizowanych jako matryca 3D, jest zdeterminowany przez sygnały RAS i CAS. Sygnał RAS (Row Access Signal) odpowiada za wybranie bieżącego wiersza (strony), a CAS (Column Access Signal) wyznacza odpowiednią kolumnę. Proces odczytu z pamięci FPM rozpoczyna się od wybrania odpowiedniego wiersz sygnałem RAS, po czym w celu zaadresowania kolumny następuje uaktywnienie sygnału CAS.

Każdy cykl sygnału CAS zawiera wybranie adresu kolumny, oczekiwanie na dane, przekazanie danych do systemu i przygotowanie następnego cyklu. W czasie cyklu CAS, gdy sygnał CAS przyjmuje wysoki poziom, wyjścia danych są zablokowane. Jest to istotne z tego względu, że zmiana sygnału na wysoki może nastąpić tylko po zakończeniu przesyłania danych. Mówiąc prościej, przed wyznaczeniem następnej komórki czyli zaadresowania jej w danej kolumnie, musi zakończyć się operacja na danych. Ponieważ często jest tak, że przesyłamy w jeden region pamięci dane w większych porcjach, Fast Page Mode RAM potrafi nieco skrócić czas potrzebny na dostęp do informacji, gdy jej poszczególne bity znajdują się na tej samej stronie pamięci.

Extented Data Output (EDO RAM)

Obecnym standardem w świecie PC stały się pamięci EDO. Czas dostępu wynosi tutaj 70 i 60 ns. Coraz częściej spotyka się także układy pracujące z szybkością 50 ns, są one szczególnie popularne w nowszych kartach graficznych. Stosowanie tego rodzaju pamięci wymaga odpowiedniej płyty głównej; obecnie praktycznie wszystkie takie urządzenia bazują na chipsecie Intel Triton, który posiada wsparcie dla modułów EDO. Najważniejszą zaletą pamięci typu EDO jest zmniejszenie liczby cykli oczekiwania podczas operacji sekwencyjnego odczytu. W przypadku modułów bazujących na FPM, cykl dostępu do pamięci wynosił 5-3-3-3, natomiast EDO może pracować przesyłając dane w serii 5-2-2-2. Termin Extended Data Out określa sposób, w jaki dane są przesyłane z pamięci.

W przypadku FPM przed wybraniem następnej komórki w kolumnie, musiała zakończyć się operacja na danych. Natomiast EDO umożliwia rozpoczęcie wyznaczania następnego adresu w czasie, gdy dane są jeszcze odczytywane z poprzedniego miejsca. Tak naprawdę jedyna modyfikacja, jaka była konieczna, żeby osiągnąć ten efekt to zmiana zachowania się pamięci na sygnał CAS. Gdy sygnał CAS przyjmuje stan wysoki, wyjścia nie są blokowane, a przesyłanie danych jest kontynuowane dopóki CAS nie przyjmie ponownie wartości niskiej.

Burst Extended Data Output (BEDO RAM)

Rozwinięciem pamięci EDO jest BEDO RAM. Zasadniczą zmianą w przypadku BEDO jest sposób, w jaki dane przesyłane są po wyznaczeniu adresu. Otóż dzięki temu, że BEDO posiada wewnętrzny licznik adresów, kontroler pamięci odwołuje się tylko do pierwszej komórki pamięci, a pozostałe bity przesyła samoczynnie układ logiki. Jest to tak zwane przesyłanie w trybie burst, co pozwala na cykl pracy 5-1-1-1. Moduły BEDO posiadają także inne modyfikacje wpływające na ich wydajność, np. skrócenie odstępu pomiędzy zboczami sygnału CAS oraz opóźnienia pomiędzy sygnałem RAS i CAS.

Nie zrezygnowano także z rozwiązania stosowanego w pamięciach EDO. W czasie przesyłania ostatniego bitu w pakiecie (burst) danych, wysterowywany jest już kolejny adres. Obecnie znaczenie opisywanych układów pamięci znacznie zmalało, gdyż można je stosować tylko w przypadku płyt głównych z chipsetem VIA 580VP, 590VP, 680VP, które nie należą, przynajmniej u nas, do najczęściej spotykanych. Nie wydaje się także, aby ten rodzaj RAM-u stał się popularny w przyszłości, ponieważ po zwiększeniu częstotliwości magistrali powyżej 66MHz, BEDO nie może dostarczać danych w sekwencji 5-1-1-1.

Synchroniczna DRAM (SDRAM)

Nowsze płyty główne zbudowane na układach Intel Triton VX i TX oraz VIA 580VP i 590VP potrafią współpracować także z pamięciami SDRAM (Synchronous Dynamic RAM, nie mylić ze SRAM). Najważniejszą cechą tego nowego rodzaju pamięci jest możliwość pracy zgodnie z taktem zegara systemowego. Podobnie do układów BEDO, SDRAM-y mogą pracować w cyklu 5-1-1-1. Istotną różnicą jest natomiast możliwość bezpiecznej współpracy z magistralą systemową przy prędkości nawet 100 MHz (10 ns).

Technologia synchronicznej pamięci DRAM bazuje na rozwiązaniach stosowanych w pamięciach dynamicznych, zastosowano tu jednak synchroniczne przesyłanie danych równocześnie z taktem zegara. Funkcjonalnie SDRAM przypomina typową DRAM, zawartość pamięci musi być odświeżana. Jednak znaczne udoskonalenia, takie jak wewnętrzny pipelining czy przeplot (interleaving) sprawiają, że ten rodzaj pamięci oferuje bardzo wysoką wydajność. Warto także wspomnieć o istnieniu programowalnego trybu burst, gdzie możliwa jest kontrola prędkości transferu danych oraz eliminacja cykli oczekiwania (wait states).

SIMM-y kontra DIMM-y

Opisywane wyżej różne rodzaje pamięci są produkowane jako układy scalone. Jednak konieczność rozbudowy współczesnych komputerów sprawia, że nie jest opłacalne wlutowywanie na stałe układów scalonych. Dlatego też już od dawna, pamięci są montowane w tak zwanych modułach. Najpopularniejsze jak dotąd moduły SIMM (Single In Line Memory Module) oznaczają sposób zorganizowania kości pamięci, a nie ich rodzaj.

Standard DIMM, nowy w świecie PC, lecz bardzo dobrze przez użytkowników Macintoshy, oznacza Dual In Line Memory Module. Szerokość danych modułów SIMM wynosi 32-bity, a DIMM 64-bity, dlatego też w przypadku 64-bitowej magistrali konieczne jest łączenie SIMM-ów w pary dla odsadzenia pojedynczego banku. Fakt iż pamięci SDRAM spotykane są w modułach DIMM nie oznacza, że te dwa standardy są ze sobą tożsame. Równie dobrze w 64-bitowym gnieździe DIMM można umieścić pamięć EDO lub FPM.

Pamięć cache

Wydajność systemu wyposażonego nawet w szybszą pamięć SDRAM, wzrośnie jeśli tylko na płycie głównej zostanie umieszczona pamięć podręczna. Cache drugiego poziomu jest tak zwaną pamięcią statyczną SRAM. Ten rodzaj RAM jest szybszy od pamięci dynamicznych, jednak bardziej kosztowny. Już w komputerach 386 na płytach głównych montowano 64 KB tej pamięci. Początkowo stosowany był asynchroniczny SRAM, którego główną zaletą była duża szybkość (zazwyczaj 15 ns). Dosyć często występowała konieczność wstawienia cyklu oczekiwania z powodu braku synchronizacji pomiędzy buforem a procesorem. Dlatego też pojawił się synchroniczny SRAM, którego parametry pracy poprawiły się właśnie dzięki eliminacji wait states. O ile pierwsze pamięci asynchroniczne mogły w najlepszym razie osiągnąć cykl 3-2-2-2 przy magistrali 66 MHz, to w przypadku synchronicznego bufora możliwe było stosowanie cyklu pracy 2-1-1-1. Obecnie jedynym rodzajem cache'u stosowanego na płytach głównych jest tzw. Piplined Burst SRAM.

PB-cache pracuje synchronicznie oraz dodatkowo zawiera specjalne rejestry wejścia/wyjścia umożliwiające pipelining. Ponieważ przeładowanie rejestru zajmuje trochę czasu, konieczna jest praca w cyklu 3-1-1-1. Dlaczego więc stosuje się cache PB zamiast synchronicznego? Otóż synchroniczny SRAM doskonale pracuje do częstotliwości 66 MHz, jednak powyżej tej granicy występuje wyraźny spadek wydajności (3-2-2-2). Natomiast Piplined Burst cache, mimo że wymaga jednego cyklu oczekiwania więcej, może bezproblemowo pracować z magistralą nawet 100 MHz w sekwencji 3-1-1-1.

Przyszłość pamięci operacyjnych

Wydawałoby się, że dostępne rozwiązania będą wystarczające na wiele lat. Niestety, wszystko wskazuje na to, że wraz ze zwiększaniem się mocy obliczeniowej procesorów, konieczne będzie dalsze zwiększenie wydajności układów pamięci. Na szczęście już teraz wiele dużych i małych koncernów intensywnie pracuje nad udoskonalaniem i rozwijaniem nowych technologii. Niewielka firma Rambus opracowała nowy rodzaj pamięci RDRAM, które już znalazły zastosowanie w wydajnych stacjach roboczych Silicon Graphics oraz, co ciekawe, w 64-bitowej konsoli do gier Nintendo 64.

Technologia kalifornijskiego Rambusa jest wspierana przez Intela i w roku 1999 mają pojawić się pierwsze nowe układy "Direct RDRAM", co najprawdopodobniej wiąże się z planowaną premierą procesora Merced.Jak na razie RDRAM bazuje na 8-bitowej magistrali (z kontrolerem pamięci) i wymaga odpowiednio zaprojektowanych sterowników i płyt głównych. Najważniejszą zaletą nowych układów jest szybkość ich pracy dochodząca obecnie do 600 MHz. Planowana przez Intela specyfikacja Direct RDRAM zakłada uzyskanie przepływu danych sięgającego 1,6 GB/s. Inni potentaci przemysłu komputerowego zareagowali natychmiast i zawiązali konsorcjum SLDRAM.

Jedną z najważniejszych przyczyn powstania konkurencyjnego projektu, jest fakt, że technologia RDRAM jest objęta licencją, co wymusza na każdym producencie takich układów płacenie Intelowi poważnych sum. W skład konsorcjum SLDRAM wchodzą między innymi: Mitsubishi, NEC, Siemens. Pojawienie się pierwszych układów SLDRAM jest planowane w 1998 roku. Ogólnie idea tej odmiany pamięci w dużym stopniu zbieżna z koncepcją RAMBUSA. SLDRAM ma pracować z 16-bitowym kontrolerem przy wysokiej częstotliwości taktowania. To, który ze standardów będzie dominował w przyszłości trudno przewidzieć. Przyszłościowy rozwój pamięci RAM przedstawiony jest na zdjęciu powyżej.


Polecam przejrzeć dwie specyfikacje modułów pamięci firmy Infineon. Można się z nich dużo dowiedzieć o budowie i działaniu pamięci RAM.


Google
 
Web www.lipka.klub.chip.pl




email me