실시간
뉴스

하드웨어

데이터센터 공개한 ‘대인배’ 페이스북…“내부를 보여주마”

[IT 전문 블로그 미디어=딜라이트닷넷]


사용자 삽입 이미지

 

페이스북이 지난 1년간 자사 데이터센터에 적용한 자체 제작 서버 스펙과 내부 모습들을 공개했습니다.

우리나라 기업
들 같으면 어림도 없는 일이겠지만 페이스북의 창업자인 마크 주커버그는 이번 정보 공유를 통해 자사 데이터센터를 더 개선할 수 있으며, 데이터센터에 대해 고민하고 있는 신생 기업들에게도 도움이 될 것이라고 말했습니다.

저도 2달 전 쯤 페이스북 데이터센터에 대한 포스팅을 한적이 있는데요.

관련 포스팅

‘페이스북’ 데이터센터는 어떤 모습일까 <상>
‘페이스북’ 데이터센터는 어떤 모습일까 <하>

이번 데이터센터 공개는 최근 페이스북이 ‘오픈 컴퓨트 프로젝트(http://opencompute.org)’에 참여하면서 진행된 것이라고 합니다. 이곳에 가시면 보다 구체적인 내용과 동영상을 보실 수 있습니다.


 

이번에 페이스북이 공개한 데이터센터는 최근 미국 오레곤주 프린빌에 건립한 새로운 센터로 내부에는 자체 제작한 서버와 냉각방식 등 다양한 내용을 공유하고 이습니다.

페이스북이 자체 제작한 서버와 오픈소스 소프트웨어 등을 통해 효율성과 비용절감에 많은 노력을 기울이고 있다는 점은 알려진 사실이지만, 이렇게 세부적인 내용들까지 공개된 점은 놀랍습니다.

결론적으로 1)페이스북이 자체 제작한 서버는 다른 어떤 브랜드 서버 제품보다 38% 성능이 좋았으며 비용은 오히려 24% 줄어들었고 2)페이스북 프린빌 데이터센터 PUE는 무려 1.07에 불과하다는 점 3)모든 서버의 에너지 효율이 93%에 달한다는 등의 사실이 업계를 놀라게 하고 있습니다.

PUE는 데이터센터 내 에너지 효율을 나타내는 지표로 데이터센터가 사용하는 총 전력을 IT장비가 사용하는 전력으로 나눈 값입니다.


 

예를 들어 PUE 값이 2라고 했을 때, 이는 곧 서버 자체에 필요한 전략이 1Kw일때, 해당 데이터센터에는 2Kw의 전력이 공급돼야 한다는 것을 뜻합니다. 나머지 1Kw의 전략은 IT 장비에서 발생하는 열을 식히기 위한 냉각 등에 주로 사용이 된다는 얘기지요. 따라서 PUE 수치는 낮을수록 더 효율적입니다.

PUE가 1.07이라고 하면 서버 자체에 공급되는 전력 외에 낭비되는 부분은 거의 없다는 얘기입니다. 제가 불과 2달전 페이스북 데이터센터 관련 포스팅을 했을 때만 해도 프린빌 데이터센터의 PUE는 1.15로 설계됐다고 알려져 있었습니다. 그런데 불과 2달 만에 이 수치가 또 줄어든 것입니다.

 

이는 별도의 냉각장치를 사용하기보다는 100% 외부의 찬 공기를 이용한 증발식 냉각 시스템을 도입했기 때문이라고 설명하고 있네요.

자체 제작한 서버 랙(Rack, 서버를 놓을 수 있는 캐비넷)은 아래 사진과 같이 3개를 하나의 세트로 묶어 놓았으며 높이는 42U나 됩니다.

 

이 3개 세트의 랙에는 총 90대의 서버를 탑재할 수 있으며, 이 랙들 사이에 한 개의 배터리 랙을 놓아 AC 전원이 나갔을 때를 대비해 DC 전원을 제공할 수 있게 해 두었다고 합니다.

또한 흥미를 끄는 점 중 하나는 푸른색의 LED 조명입니다. 단가 자체는 일반 조명보다 약간 비싸지면 이를 통해 오히려 에너지 효율 자체를 높일 수 있고 내부를 시원하게 보이게 하는 효과가 있습니다. 마치 첨단의 사이버 세상에 있는 듯한 느낌도 들 것 같네요.

한편 페이스북은 이번 오픈 컴퓨트 프로젝트를 위해 AMD와 인텔, 콴타시스템, 알파테크, 파워-원, 델타 등과 협력관계를 맺고 있으며, 델과 HP, 랙스페이스, 스카이프, 징가 등의 업체와 차세대 데이터센터를 위한 공동 작업을 하고 있다고 밝혔습니다. 

최근 국내에서도 KT가 새로 건립한 클라우드 전용 데이터센터에 이러한 대만 콴타시스템을 통해 서버를 자체제작(ODM) 하기도 했는데요. 이번 페이스북의 정보 공유를 통해 국내 데이터센터 관련 업체들도 많은 도움이 됐으면 좋겠습니다.

 

[백지영기자 블로그=데이터센터 트랜스포머]

디지털데일리 네이버 메인추가
x