검색어 입력폼

Facebook 데이터 센터 분석

저작시기 2013.12 |등록일 2013.12.29 | 최종수정일 2014.02.10 한글파일한컴오피스 (hwp) | 8페이지 | 가격 1,000원

소개글

효율적인 데이터 센터 건설을 위한 Global IT 기업들의 기술 경쟁이 치열한 가운데,
Google에 이어 이 분야에 많은 관심과 투자를 진행 중인 Facebook의 Open Compute Project를 중심으로 그들의 데이터 센터 기술을 분석한 레포트 입니다.
많은 도움 되시기 바랍니다.

목차

1. 개요
2. 서버 밀도 분석
3. PUE 개선 방안
4. 마무리

본문내용

1. 개요
Facebook이 자사의 데이터 센터에서 사용되는 서버 및 데이터 센터 설비의 사양을 공개했다(2011년). 이 데이터 센터는 효율성과 경제성이 높고, PUE는 1.07이라고 한다. 공개된 사양을 통해 Facebook이 어떤 연구를 하고 있는지를 조사해 보았다.

Facebook은 2011년 4월 7일, 미국 오리건주 프라인빌(Prineville)에 건설한 데이터 센터의 시설 및 서버의 사양을 상세히 공개했다. 누구나 자유롭게 사용할 수 있도록 되어있다.

Facebook은 프라인빌 데이터 센터가 다른 최첨단 데이터 센터에 비해 효율이 38% 높고, 경제성도 24% 높다고 발표 했다. 이 수치의 구체적인 근거는 명확하지 않다. 그러나 이 데이터 센터의 PUE(Power Usage Effectiveness : 전체 데이터 센터의 소비 전력을 IT 기기의 소비 전력으로 나눈 값)가 1.07 이라는 것은 놀라운 수치다. 이것은 데이터 센터에 공급되는 전력의 약 93.5%가 서버와 이더넷 스위치 등에 사용되는 것을 의미한다. 다시 말해, 에어컨 및 기타 데이터 센터 유지를 위해 사용되는 전력은 전체의 약 6.5% 정도에 지나지 않는다(앞에서 말한 "효율이 38 % 높다"라고 하는 것은 PUE가 최근 데이터 센터 PUE 평균치인 1.5에 대해 프라인빌은 1.07이라는 것에 기인한 것으로 추측됨).

<중 략>

그림과 같이 먼저 외기를 받아들여 기화열 메커니즘에 의해 공기 냉각 구역으로 이끌고, 물안개를 통과 시킨다. 그 후, 과도한 습기를 제거한다. 다음에 송풍기 지역에 도달한 후, 데이터 센터의 냉기 통로로 보낸다. 이 냉기가 냉기 통로에서 서버 랙을 지나 열기 통로로 빠지는 것으로 서버를 냉각한다. 많은 데이터 센터는 냉기를 이끌기 위해 데이터 센터 에서 덕트를 설치하지만, 이 디자인은 냉기를 보내고 따뜻한 공기를 배출하는데 덕트를 만들지 않아도 된다고 얘기하고 있다. 바깥 공기의 혼잡이나 그 냉각은 데이터 센터의 다락방같은 공간(Facebook에서는 이를 '펜트 하우스'라고 표현 하고 있음)에서 실시함으로써, 덕트의 필요성을 감소시켰다. 서버 냉각 후 열기 통로로 빠진 열기는 고립된 채 천장 팬 밖으로 배출 된다.

참고 자료

없음
다운로드 맨위로