캐시슬라이드 다운로드 수

| 0

그림 1은 일반적인 플래시 메모리 기반 스토리지 시스템, 호스트 인터페이스, SSD 컨트롤러, NVM 캐시 및 NAND 플래시 메모리 어레이의 주요 구성 요소를 묘사 합니다. 호스트 인터페이스를 통해 운영 체제에서 발행 된 읽기 및 쓰기 요청을 처리 하기 위해 SSD 컨트롤러는 요청 유형에 따라 데이터를 읽거나 씁니다. Outlook의 사서함 데이터 로컬 캐시는 OST 파일 이라고 하는 파일 형식으로 저장 됩니다. OST 파일은 Outlook 오프 라인 데이터 파일입니다. 이 문서에서는 다중 레벨 셀 플래시 메모리의 특성을 악용 하는 데이터 캐싱 관리 체계를 조사 합니다. 자주 작성 된 핫 데이터는 결국 높은 확률로 NVM 캐시에 진입 하는 개념을 기반으로 하며, 자주 사용 되지 않는 콜드 데이터는 추가 작업 없이 NVM 캐시에 쉽게 들어가지 않으며, 확률 기반 의사 결정을 소개 합니다. 프로 통 이라고 부릅니다. ProCache는 매우 간단 하 고 복잡 한 데이터 구조 나 광범위 한 계산이 필요 하지 않기 때문에 실제 시스템에서 실질적으로 구현 될 수 있습니다-단지 주사위를 던져! 요약 하자면, 제안 된 확률 기반 핫 데이터 분류 알고리즘은 간단 하 고 구현 하기 쉽습니다. 핫 데이터와 콜드 데이터 사이의 액세스 주파수에 넓은 간격이 있는 한, 작은 p가 있는 확률 기반 분류기는이를 효과적으로 구분할 것입니다. 핫 데이터를 신속 하 게 분류 하는 것이 중요 한 경우에는 합리적으로 큰 p를가지고 있어야 합니다. 캐시 오염을 방지 하는 것이 중요 하다 면, 우리는 p를 작게 유지 해야 합니다. 우리의 오프 라인 알고리즘은 잘 알려진 Belady의 알고리즘에서 파생 됩니다.

우리는 Belady의 알고리즘에 “우회”의 개념을 추가: 새로 요청 된 데이터가 이미 캐시에 있는 모든 정보 보다 더 긴 시간 동안 다시 필요 하지 않을 경우, 우리는이 데이터의 캐싱을 우회; 그렇지 않으면, 우리는 Belady의 알고리즘을 따릅니다. 먼저 세 개의 매개 변수, 즉 c, p 및 캐시 크기를 결정 해야 합니다. 적절 한 값을 결정 하기 위해 알고리즘 2에 표시 된 워크 로드가 실행 될 때 각 구성의 적중 비율을 측정 했습니다. 도 8 및도 9는 c, p 및 캐시 크기를 다양 하 게 하 여 히트 비율의 변동을 보여준다. 도 8에서는, 우리는도 9에 대 한 모든 요청을 고려 하면서, 히트 율을 계산 하기 위해 컷오프 크기 보다 같거나 적은 요청만 고려 하였다. 그림 3에서는 웜 업 반복 횟수를 변경 하 여 오프 라인 알고리즘 (“오프 라인”)과 ProCache 알고리즘 (“온라인”)의 성능을 보여 줍니다. 워밍업 이란 알고리즘을 통해 주어진 트레이스를 실행 하 여 쓰기 캐시를 “워밍업” 하는 것을 말합니다. 우리가 연구 하는 추적은 저장 트래픽의 몇 일에만 대응 하기 때문에 워밍업을 고려 합니다. 그런 다음, 우리는 인위적으로 트래픽을 증폭 하기 위해 워밍업을 반복 했다.

Follow admin:

Latest posts from