Jumat, 25 Desember 2015

ARKOM 3




OVERVIEW  CACHE  MEMORY
          •Cache memory adalah memori sesaat yang  memiliki kecepatan tinggi dengan ukuran yang  kecil. Memori ini bertugas untuk menyimpan  salinan perintah / instruksi yang selalu diakses  oleh CPU. Tugas Cache memory adalah sebagai  penghubung perbedaan kecepatan antara CPU  dan Memori Utama.
•Dalam implementasinya jenis memori yang digunakan untuk cache adalah statik  RAM (SRAM)
Bagan Cache MemoRY










Operesi cache
          Jika prosesor membutuhkan suatu data, pertama prosesor akan  mencarinya pada cache. Jika data ditemukan, prosesor akan langsung  membacanya dengan delay yang sangat kecil. Tetapi jika data yang  dicari tidak ditemukan,prosesor akan mencarinya pada RAM yang  kecepatannya lebih rendah. Pada umumnya, cache dapat menyediakan data yang dibutuhkan oleh prosesor sehingga pengaruh kerja RAM yang lambat dapat dikurangi.  Dengan cara ini maka memory bandwidth akan naik dan kerja  prosesor menjadi lebih efisien. Selain itu kapasitas memori cache  yang  semakin besar juga akan meningkatkan kecepatan kerja komputer  secara keseluruhan. Dua jenis cache yang sering digunakan dalam  dunia komputer adalah memory caching dan disk caching.
Implementasinya dapat berupa sebuah bagian khusus dari memori  utama komputer atau sebuah media penyimpanan data khusus yang berkecepatan tinggi


karakterisrik cache memory
          Kapasitas relatif lebih kecil dari main memory,  tetapi memiliki kecepatan yang relativ lebih tinggi  dibanding main memory;
•Cache memory merupakan suatu memori buffer  (salinan data) bagi memori utama
•Meskipun cache menggunakan informasi yang  tersimpan dalam memori utama, tetapi  ia tidak  berhadapan secara langsung dengan memori utama
•Word yang disimpan didalam cache memory adalah word yang diambil dari main memory, yang dikerjakan sesuai perintah CPU


cache design
   Ukuran cache
•Pemetaan (Mapping Function)
•Algoritma Penggantian (Replacement Algorithm)

•Write Policy
•Ukuran Blok
•Jumlah Cache



Ukuran Cache
          Menentukan ukuran cache memory sangat  penting untuk mendongkrak kinerja komputer.  Dari segi harga cache memory sangat, mahal tidak  seperti memori utama. Semakin besar kapasitas  cache tidak berarti semakin cepat prosesnya, dengan ukuran besar akan terlalu banyak gate  pengalamatannya sehingga akan memperlambat proses

Jumlah Cache
          Ukuran Cache Menentukan ukuran cache memory sangat  penting untuk mendongkrak kinerja komputer.  Dari segi harga cache memory sangat, mahal tidak  seperti memori utama. Semakin besar kapasitas  cache tidak berarti semakin cepat prosesnya, dengan ukuran besar akan terlalu banyak gate  pengalamatannya sehingga akan memperlambat  proses.


·Level Cache Memory
•Cache memory memori level 1 (L1) adalah cache memory yang  terletak dalam prosesor (internal cache). Cache memory ini  memiliki kecepatan akses paling tinggi. Ukuran memori  berkembang mulai dari 8KB, 64KBdan 128KB


•Cache memory level 2 (L2) memiliki kapasitas yang lebih besar yaitu berkisar antara256 KBsampai dengan 2MB
Namun, cache memory L2 ini memiliki kecepatan yang lebih  rendah dari cache memory L1. Cache memory L2 terletak  terpisah dengan prosesor atau disebut dengan external cache
•Cache memory level 3 (L3) hanya dimiliki oleh prosesor yang  memiliki unit lebih dari satu misalnya dualcore dan quadcore.  Fungsinya adalah untuk mengontrol data yang masuk dari  tembolok L2 dari masing masing inti prosesor.  Pemetaan Karena saluran cache memory lebih sedikit dibandingkan  dengan blok memori utama, maka diperlukan algoritma  untuk pemetaan blok memori utama ke dalam saluran  cache memory. Pemilihan terhadap fungsi pemetaan akan sangat menentukan bentuk organisasi cache memory.  Telah kita ketahui bahwa cache memory mempunyai  kapasitas yang kecil dibandingkan memori utama.  Sehingga diperlukan aturan blok-blok mana yang  diletakkan dalam cache memoryTeknik Pemetaan

•Direct mapping
•Fully associative mapping
•Set associative mapping Direct Mapping Keuntungan menggunakan Direct Mapping antara lain:
•Mudah dan murah diimplementasikan.
•Mudah untuk menentukan letak salinan data main memory
pada cache. Kerugian menggunakan Direct Mapping antara lain:
•Setiap blok main memory hanya dipetakan pada 1 line saja.
•Terkait dengan sifat lokal pada main memory, sangat  mungkin mengakses blok yang dipetakan pada line yang sama  pada cache. Blok seperti ini akan menyebabkan seringnya sapu masuk dan keluar data  ke/dari cache, sehingga hit ratio mengecil. Hit ratio adalah perbandingan antara jumlah  ditemukannya data pada cache dengan jumlah usaha  mengakses cache

 Full associative mapping
•Memungkinkan blok diletakkan di sebarang line yang sedang tidak terpakai
•Diharapkan akan mengatasi kelemahan utama

Direct Mapping.
•Harus menguji setiap cache untuk menemukan blok yang diinginkan  Mengecek setiap tag pada line  Sangat lambat untuk cache berukuran besar.
•Nomor line menjadi tidak berarti. Address main memory dibagi menjadi 2 field saja yaitu tag dan  word ofsett

     Full associative mapping
•Keuntungan Associative Mapping: cepat dan  fleksibel
•Kerugiannya biaya implementasi

Misalnya  :
untuk cache ukuran  8  kbyte dibutuhkan 1024 x
17 bit associative memory untuk menyimpan tag indentifier Set associative mapping
• Merupakan kompromi antara Direct dengan Full  Associative Mapping.
• Membagi cache menjadi sejumlah set (v) yang  masing-masing memiliki sejumlah line (k)
•Setiap blok dapat diletakkan  di sebarang line
• Jika sebuah set dapat menampung X line, maka  cache disebut memiliki Xway set associative cache.
•Hampir semua cache yang digunakan saat ini menggunakan organisasi 2 atau 4-way set associative mapping  Set associative mapping  Keuntungan menggunakan Set Associative Mapping antara lain:
Setiap blok memori dapat menempati lebih dari satu kemungkinan nomor line (dapat menggunakan line yang kosong),sehingga thrashing dapat diperkecil  Jumlah tag lebih sedikit (dibanding model  associative), sehingga jalur untuk melakukan  perbandingan  tag lebih sederhana

PEMETAAN
Algoritma pergantian
• Pada teknik direct mapping, jika sebuah blok  akan disalinkan  ke sebuah slot dan slot tersebut  sedang terisi, maka blok yang baru tersebut  langsung akan menggantikan blok yang lama.
•Pada teknik fully associative dan  set associative  mapping, jika sebuah blok akan disalinkan ke slot cache dan semua slot saat itu penuh, maka  harus ditentukan isi slot mana yang harus  diganti. Untuk itu diperlukan suatu algoritma  penggantian.
•Algorima penggantian yang bisa digunakan adalah :
ü First  In First Out (FIFO) : mengganti blok yang  paling lama menempati cache , FIFO
dari Wikipedia, ensiklopedia gratis Mencari FIFO di Wiktionary, kamus gratis.
ü FIFO adalah akronim yang paling umum adalah singkatan pertama keluar pertama. Dua konteks umum untuk ini adalah:
ü FIFO dan LIFO akuntansi, akuntansi
 FIFO (komputasi dan elektronik), metode antrian atau manajemen memori
FIFO dapat berdiri untuk kata lain:
Cocok atau bercinta off, ekspresi sumber daya manusia tidak resmi digunakan dalam organisasi
     Fly-in fly-out, strategi sumber daya manusia untuk penyebaran personil ke lokasi terpencil
Least Recently Used (LRU) : mengganti blok yang  paling lama tidak  digunakan,
Least Frequently Used (LFU) : mengganti blok
yang paling jarang digunakan,LRU dapat merujuk ke:
     Line-diganti Unit, komponen kompleks kendaraan yang dapat diganti dengan cepat di tingkat organisasi , Algoritma cache yang paling Baru Digunakan
 Bandara Internasional Las Cruces di Las Cruces, New Mexico, Amerika Serikat
     Lenoir-Rhyne University   Kebebasan dan Tanggung Jawab Universitas, hukum Perancis pada tahun 2007 sebagai
Random : mengganti secara acak, Acak Integer Generator
Formulir ini memungkinkan Anda untuk menghasilkan bilangan bulat acak. Keacakan berasal dari kebisingan atmosfer, yang untuk berbagai tujuan lebih baik dari algoritma nomor pseudo-random biasanya digunakan dalam program komputer.

Write Policy
          Write Policy adalah suatu keadaan apabila suatu  data telah diletakkan pada cache memory maka  sebelum ada penggantian harus dicek apakah data  tersebut telah mengalami perubahan Apabila  telah berubah maka data pada memori utama  harus di-update. Ada 2 write policy yang biasa digunakan, yaitu:

• Write Through : cache, teknik menyimpan salinan data sementara di media penyimpanan dengan cepat diakses (juga dikenal sebagai memori) lokal untuk CPU dan terpisah dari penyimpanan massal, telah sekitar selama komputasi itu sendiri. Keberadaan cache didasarkan pada ketidaksesuaian antara karakteristik kinerja komponen inti dari arsitektur komputasi, yaitu bahwa penyimpanan massal tidak dapat mengikuti dengan persyaratan kinerja CPU dan aplikasi pengolahan.

• Write Back : Sebuah metode caching dimana modifikasi data dalam cache tidak disalin ke sumber Cache sampai benar-benar diperlukan. Menulis-kembali caching tersedia pada banyak mikroprosesor, termasuk semua prosesor Intel sejak 80486. Dengan mikroprosesor ini, modifikasi data (misalnya, menulis operasi) untuk data yang disimpan dalam cache L1 tidak disalin ke memori utama sampai benar-benar diperlukan. Sebaliknya, write-through cacheperforms semua menulis operasi secara paralel - data ditulis ke memori utama dan cache L1 secara bersamaan.








1 komentar: