采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: ( (2 ) 增大Cache中的块数采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: (1 ) 增

来源:学生作业帮助网 编辑:作业帮 时间:2024/05/01 08:35:06
采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: ( (2 ) 增大Cache中的块数采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议:    (1 ) 增

采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: ( (2 ) 增大Cache中的块数采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: (1 ) 增
采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: ( (2 ) 增大Cache中的块数
采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议:
(1 ) 增大主存容量
(2 ) 增大Cache中的块数(块的大小不变)
(3 ) 增大组相联组的大小(块的大小不变)
(4)增大块的大小(组的大小和Cache总容量不变)
(5)提高Cache本身器件的访问速度
试问分别采用上述措施后,对等效访问速度可能会有什么样的显著变化?其变化趋势如何?如果采取措施后并未能使等效访问速度有明显提高的话,又是什么原因?

采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: ( (2 ) 增大Cache中的块数采用组相联映象、LRU替换算法的Cache存贮器,发现等效访问速度不高,为此提议: (1 ) 增
1.cache不变的情况下,增大主存容量会使cache的miss率提高,平均访存速度提高.
2.增大块数,cache miss率下降,平均访存时间下降.
3.增大组数,cache miss率下降,平均访存时间下降.
4.cache总量不变时,增加块大小,cache miss率提高,平均访存时间变长.
5.提高cache速度,平均访存时间下降.