OVERVIEW CACHE
MEMORY
•Cache memory adalah memori sesaat yang memiliki kecepatan tinggi dengan ukuran
yang kecil. Memori ini bertugas untuk
menyimpan salinan perintah / instruksi
yang selalu diakses oleh CPU. Tugas
Cache memory adalah sebagai penghubung
perbedaan kecepatan antara CPU dan
Memori Utama.
•Dalam implementasinya
jenis memori yang digunakan untuk cache adalah statik RAM (SRAM)
Bagan
Cache MemoRY
Operesi
cache
Jika prosesor membutuhkan suatu data, pertama prosesor
akan mencarinya pada cache. Jika data
ditemukan, prosesor akan langsung
membacanya dengan delay yang sangat kecil. Tetapi jika data yang dicari tidak ditemukan,prosesor akan
mencarinya pada RAM yang kecepatannya
lebih rendah. Pada umumnya, cache dapat menyediakan data yang dibutuhkan oleh
prosesor sehingga pengaruh kerja RAM yang lambat dapat dikurangi. Dengan cara ini maka memory bandwidth akan
naik dan kerja prosesor menjadi lebih
efisien. Selain itu kapasitas memori cache
yang semakin besar juga akan
meningkatkan kecepatan kerja komputer
secara keseluruhan. Dua jenis cache yang sering digunakan dalam dunia komputer adalah memory caching dan disk
caching.
Implementasinya dapat
berupa sebuah bagian khusus dari memori
utama komputer atau sebuah media penyimpanan data khusus yang
berkecepatan tinggi
karakterisrik
cache memory
Kapasitas relatif lebih kecil dari main memory, tetapi memiliki kecepatan yang relativ lebih
tinggi dibanding main memory;
•Cache memory merupakan
suatu memori buffer (salinan data) bagi
memori utama
•Meskipun cache
menggunakan informasi yang tersimpan
dalam memori utama, tetapi ia tidak berhadapan secara langsung dengan memori
utama
•Word yang disimpan
didalam cache memory adalah word yang diambil dari main memory, yang dikerjakan
sesuai perintah CPU
cache
design
Ukuran cache
•Pemetaan (Mapping
Function)
•Algoritma Penggantian
(Replacement Algorithm)
•Write Policy
•Ukuran Blok
•Jumlah Cache
Ukuran
Cache
Menentukan ukuran cache memory sangat penting untuk mendongkrak kinerja
komputer. Dari segi harga cache memory
sangat, mahal tidak seperti memori
utama. Semakin besar kapasitas cache
tidak berarti semakin cepat prosesnya, dengan ukuran besar akan terlalu banyak
gate pengalamatannya sehingga akan
memperlambat proses
Jumlah
Cache
Ukuran Cache Menentukan ukuran cache memory sangat penting untuk mendongkrak kinerja
komputer. Dari segi harga cache memory
sangat, mahal tidak seperti memori
utama. Semakin besar kapasitas cache
tidak berarti semakin cepat prosesnya, dengan ukuran besar akan terlalu banyak
gate pengalamatannya sehingga akan
memperlambat proses.
·Level
Cache Memory
•Cache memory memori
level 1 (L1) adalah cache memory yang
terletak dalam prosesor (internal cache). Cache memory ini memiliki kecepatan akses paling tinggi.
Ukuran memori berkembang mulai dari 8KB,
64KBdan 128KB
•Cache memory level 2
(L2) memiliki kapasitas yang lebih besar yaitu berkisar antara256 KBsampai
dengan 2MB
Namun, cache memory L2
ini memiliki kecepatan yang lebih rendah
dari cache memory L1. Cache memory L2 terletak
terpisah dengan prosesor atau disebut dengan external cache
•Cache memory level 3
(L3) hanya dimiliki oleh prosesor yang
memiliki unit lebih dari satu misalnya dualcore dan quadcore. Fungsinya adalah untuk mengontrol data yang
masuk dari tembolok L2 dari masing
masing inti prosesor. Pemetaan Karena
saluran cache memory lebih sedikit dibandingkan
dengan blok memori utama, maka diperlukan algoritma untuk pemetaan blok memori utama ke dalam
saluran cache memory. Pemilihan terhadap
fungsi pemetaan akan sangat menentukan bentuk organisasi cache memory. Telah kita ketahui bahwa cache memory
mempunyai kapasitas yang kecil dibandingkan
memori utama. Sehingga diperlukan aturan
blok-blok mana yang diletakkan dalam
cache memoryTeknik Pemetaan
•Direct mapping
•Fully associative
mapping
•Set associative
mapping Direct Mapping Keuntungan menggunakan Direct Mapping antara lain:
•Mudah dan murah
diimplementasikan.
•Mudah untuk menentukan
letak salinan data main memory
pada cache. Kerugian
menggunakan Direct Mapping antara lain:
•Setiap blok main
memory hanya dipetakan pada 1 line saja.
•Terkait dengan sifat
lokal pada main memory, sangat mungkin
mengakses blok yang dipetakan pada line yang sama pada cache. Blok seperti ini akan menyebabkan
seringnya sapu masuk dan keluar data
ke/dari cache, sehingga hit ratio mengecil. Hit ratio adalah
perbandingan antara jumlah ditemukannya
data pada cache dengan jumlah usaha
mengakses cache
Full associative mapping
•Memungkinkan blok
diletakkan di sebarang line yang sedang tidak terpakai
•Diharapkan akan
mengatasi kelemahan utama
Direct
Mapping.
•Harus menguji setiap
cache untuk menemukan blok yang diinginkan Mengecek setiap tag pada line Sangat lambat untuk cache berukuran besar.
•Nomor line menjadi
tidak berarti. Address main memory dibagi menjadi 2 field saja yaitu tag
dan word ofsett
Full associative mapping
•Keuntungan Associative
Mapping: cepat dan fleksibel
•Kerugiannya biaya
implementasi
Misalnya :
untuk cache ukuran 8
kbyte dibutuhkan 1024 x
17 bit associative
memory untuk menyimpan tag indentifier Set associative mapping
• Merupakan kompromi
antara Direct dengan Full Associative
Mapping.
• Membagi cache menjadi
sejumlah set (v) yang masing-masing
memiliki sejumlah line (k)
•Setiap blok dapat
diletakkan di sebarang line
• Jika sebuah set dapat
menampung X line, maka cache disebut
memiliki Xway set associative cache.
•Hampir semua cache
yang digunakan saat ini menggunakan organisasi 2 atau 4-way set associative
mapping Set associative mapping Keuntungan menggunakan Set Associative
Mapping antara lain:
Setiap blok memori
dapat menempati lebih dari satu kemungkinan nomor line (dapat menggunakan line
yang kosong),sehingga thrashing dapat diperkecil Jumlah tag lebih sedikit (dibanding
model associative), sehingga jalur untuk
melakukan perbandingan tag lebih sederhana
PEMETAAN
Algoritma
pergantian
• Pada teknik direct
mapping, jika sebuah blok akan
disalinkan ke sebuah slot dan slot
tersebut sedang terisi, maka blok yang
baru tersebut langsung akan menggantikan
blok yang lama.
•Pada teknik fully
associative dan set associative mapping, jika sebuah blok akan disalinkan ke
slot cache dan semua slot saat itu penuh, maka
harus ditentukan isi slot mana yang harus diganti. Untuk itu diperlukan suatu algoritma penggantian.
•Algorima penggantian
yang bisa digunakan adalah :
ü First In First Out (FIFO) : mengganti blok
yang paling lama menempati cache , FIFO
dari Wikipedia,
ensiklopedia gratis Mencari FIFO di Wiktionary, kamus gratis.
ü FIFO
adalah akronim yang paling umum adalah singkatan pertama keluar pertama. Dua
konteks umum untuk ini adalah:
ü FIFO
dan LIFO akuntansi, akuntansi
FIFO (komputasi dan elektronik), metode
antrian atau manajemen memori
FIFO dapat berdiri
untuk kata lain:
Cocok atau bercinta
off, ekspresi sumber daya manusia tidak resmi digunakan dalam organisasi
Fly-in fly-out, strategi sumber daya
manusia untuk penyebaran personil ke lokasi terpencil
Least Recently Used
(LRU) : mengganti blok yang paling lama
tidak digunakan,
Least Frequently Used
(LFU) : mengganti blok
yang paling jarang
digunakan,LRU dapat merujuk ke:
Line-diganti Unit, komponen kompleks
kendaraan yang dapat diganti dengan cepat di tingkat organisasi , Algoritma
cache yang paling Baru Digunakan
Bandara Internasional Las Cruces di Las
Cruces, New Mexico, Amerika Serikat
Lenoir-Rhyne University Kebebasan dan Tanggung Jawab Universitas,
hukum Perancis pada tahun 2007 sebagai
Random : mengganti
secara acak, Acak Integer Generator
Formulir ini
memungkinkan Anda untuk menghasilkan bilangan bulat acak. Keacakan berasal dari
kebisingan atmosfer, yang untuk berbagai tujuan lebih baik dari algoritma nomor
pseudo-random biasanya digunakan dalam program komputer.
Write
Policy
Write Policy adalah suatu keadaan apabila suatu data telah diletakkan pada cache memory
maka sebelum ada penggantian harus dicek
apakah data tersebut telah mengalami
perubahan Apabila telah berubah maka
data pada memori utama harus di-update.
Ada 2 write policy yang biasa digunakan, yaitu:
• Write Through :
cache, teknik menyimpan salinan data sementara di media penyimpanan dengan
cepat diakses (juga dikenal sebagai memori) lokal untuk CPU dan terpisah dari
penyimpanan massal, telah sekitar selama komputasi itu sendiri. Keberadaan
cache didasarkan pada ketidaksesuaian antara karakteristik kinerja komponen
inti dari arsitektur komputasi, yaitu bahwa penyimpanan massal tidak dapat
mengikuti dengan persyaratan kinerja CPU dan aplikasi pengolahan.
• Write Back : Sebuah
metode caching dimana modifikasi data dalam cache tidak disalin ke sumber Cache
sampai benar-benar diperlukan. Menulis-kembali caching tersedia pada banyak
mikroprosesor, termasuk semua prosesor Intel sejak 80486. Dengan mikroprosesor ini,
modifikasi data (misalnya, menulis operasi) untuk data yang disimpan dalam
cache L1 tidak disalin ke memori utama sampai benar-benar diperlukan.
Sebaliknya, write-through cacheperforms semua menulis operasi secara paralel -
data ditulis ke memori utama dan cache L1 secara bersamaan.
Ini sangat bermanfat
BalasHapuspengungkit stainless