คลังเก็บป้ายกำกับ: ดาต้าเซ็นเตอร์

เอ็นทีที คอม โชว์รายงาน SOC ด้านการปกป้องข้อมูลในดาต้า เซ็นเตอร์

เอ็นทีที คอมมิวนิเคชั่นส์ (ประเทศไทย) จำกัด ซึ่งเป็นบริษัทในเครือของ เอ็นทีที คอมมิวนิเคชั่นส์ คอร์ปอร์เรชั่น (เอ็นทีที คอม) ผู้ดำเนินธุรกิจให้บริการด้านไอซีทีโซลูชั่นส์และการสื่อสารระหว่างประเทศในเครือของเอ็นทีทีกรุ๊ป (TYO: 9432) ตอกย้ำความมั่นใจให้ลูกค้าไปอีกขั้น โดยได้รับการรับรองรายงานระบบตรวจสอบการควบคุมการทำงานองค์กร หรือ SOC (Service Organization Control) ซึ่งเป็นรายงานการรับรองการให้บริการตามมาตรฐานสากล หรือ International Standard on Assurance Engagement 3402: ด้านการรายงานผลการรับรองเกี่ยวกับการควบคุมการให้บริการในองค์กร (Assurance Reports on Controls at a Service Organization : ISAE3402)

ผลการรับรองรายงาน SOC จะแสดงให้ลูกค้าและผู้ตรวจสอบของลูกค้าเห็นถึงประสิทธิภาพการควบคุมภายใน ที่ส่งผลต่อการตรวจสอบข้อมูลงบการเงิน เพื่อสร้างความเชื่อมั่นในเรื่องของนโยบายการควบคุมภายในองค์กร รวมถึงขั้นตอนการทำงานที่มีประสิทธิภาพในการส่งมอบความปลอดภัยให้กับลูกค้าที่เข้ามา ใช้บริการใน “ศูนย์ข้อมูล” Bangkok 2 Data Center ซึ่งเอ็นทีที คอม นับเป็นผู้ให้บริการศูนย์ข้อมูลเพียงแห่งแรกและแห่งเดียวในไทยที่สามารถผ่านการรับรองดังกล่าว

นายเกรียงศักดิ์ จรูญศรีสวัสดิ์ รองประธานอาวุโส แผนกธุรกิจดาต้าเซ็นเตอร์ บริษัท เอ็นทีที คอมมิวนิเคชั่นส์ (ประเทศไทย) จำกัด กล่าวว่า เรามีความภูมิใจเป็นอย่างยิ่งที่ผ่านการรับรองรายงานระบบตรวจสอบการควบคุมองค์กรบริการ หรือ SOC จากองค์กรที่มีความเชี่ยวชาญด้านการตรวจสอบในระดับโลก ทั้งด้านการเงินและความปลอดภัยในโลกไซเบอร์ รวมถึงข้อมูลที่เป็นความลับขององค์กร ทำให้มั่นใจได้ว่าเราจะให้บริการที่มีคุณภาพสูง และข้อมูลลูกค้าจะได้รับการคุ้มครองเป็นอย่างดี รวมถึงเป็นการสร้างความไว้วางใจระหว่างผู้ให้บริการและผู้ใช้บริการในองค์กรของลูกค้าด้วย

“SOC เป็นรายงานการตรวจสอบจากบุคคลที่สาม ซึ่งเป็นหน่วยงานอิสระ โดยเป็นการแสดงให้เห็นว่าเราได้ผ่านการควบคุมการปฏิบัติตามกฎระเบียบและวัตถุประสงค์ของรายงานดังกล่าว ซึ่งจะเป็นการยืนยันให้ลูกค้าและผู้ที่จะเข้ามาตรวจสอบลูกค้า ได้มั่นใจถึงการควบคุมการทำงานของเรา โดยวัตถุประสงค์ของการจัดทำรายงาน SOC เพื่อเป็นการแสดงให้เห็นถึงการปฏิบัติงาน และการควบคุมดูแลข้อมูล ตามข้อกำหนดในระดับสากลของ เอ็นทีที คอม ”

สำหรับรายงาน SOC ได้รับการออกแบบมาเพื่อแสดงให้เห็นถึงการควบคุมการทำงานภายในองค์กรที่ให้บริการด้านดาต้า เซ็นเตอร์ ในด้านความปลอดภัยทางกายภาพ ระบบการบริหารจัดการความพร้อมด้านการใช้งานไอที รวมทั้งข้อมูลที่เป็นความลับของลูกค้า โดยเฉพาะหน่วยงานหรือองค์กรที่ให้บริการด้านการเงิน เช่น กลุ่มสถาบันการเงิน ธนาคาร และบริษัทประกันภัย ฯลฯ สามารถมั่นใจได้ถึงความปลอดภัยในการประมวลผลข้อมูลและการดำเนินงานด้านระบบไอทีของลูกค้า เมื่อเข้ามาใช้บริการดาต้า เซ็นเตอร์ กับเอ็นทีที

from:https://www.enterpriseitpro.net/ntt-com-soc-data-center/

Advertisements

ตามไปยลโฉมระบบ Arion Aisle Containment System สำหรับดาต้าเซ็นเตอร์

การควบคุมลมเย็นและลมร้อนของห้องดาต้าเซ็นเตอร์ได้รับการยอมรับอย่างกว้างขวางว่าเป็นหนึ่งในยุทธศาสตร์ที่สำคัญที่สุดในการปรับปรุงประสิทธิภาพการใช้พลังงานในห้องเซิร์ฟเวอร์ ในขณะที่ผู้ใช้งานมีทางเลือกในการกำหนดทิศทางเดินของลมเย็นและลมร้อน

โดยทีม Reseach Design & Development ของ บริษัท เชอวาล อิเล็คโทรนิค เอ็นโคลสเชอร์ จำกัด ได้ทำการวิจัยและออกแบบ Arion Cold and Hot Aisle Contaiment เพื่อรองรับการควบคุมลมร้อนและลมเย็นให้ในศูนย์ข้อมูลดาต้าเซ็นเตอร์ (Data Center) ให้เกิดประสิทธิภาพในการใช้งานที่เหมาะสมที่สุด

Aisle Containment แบ่งออกตามลักษณะการไหลของลมร้อนและลมเย็นได้เป็นสองแบบดังนี้

1. Hot Aisle Containment
2. Cold Aisle Containment

Hot Aisle Containment

Hot Aisle Containment เป็นพื้นที่ที่มีลมร้อนไหลผ่านอยู่ภายในห้องตลอดเวลาและมีลมเย็นอยู่ในส่วนที่เหลือทั้งหมดของศูนย์ข้อมูล มีโครงสร้างเป็นตู้ 19” ติดตั้งเป็นสองแถวหันด้านหลังเข้าหากัน ติดตั้งประตูปิดที่ปลายทั้งสองด้านของแถวตู้ 19” แล้วปิดช่องว่างระหว่างด้านบนตู้ 19” ถึงฝ้าเพดานให้สนิทเป็นเนื้อเดียวกัน เพื่อใช้เป็นทางไหลกลับของลมร้อนและป้องกันไม่ให้ลมร้อนรั่วออกไปผสมกับลมเย็นหน้าตู้ 19” ซึ่งจะมีรูปแบบและทิศทางการไหลของลมร้อนและลมเย็น

แสดงให้เห็น Arion rack ติดตั้งให้หันหลังเข้าหากันบนพื้นยกลอย (raised floor) ซึ่งหากติดต้ังตามมาตรฐานยุโรปแล้วระยะห่างระหว่างด้านหลังของตู้ 19” ต้องไม่น้อยกว่า 1,200 มม. ระบบทําความเย็น (CRAC: Computer Room Air Conditioner) จะปล่อยลมเย็นด้วยความดันที่เหมาะสมลงด้านล่างของพื้นยกลอย ที่ด้านหน้าของตู้ 19” ทุกแถวจะมีการติดตั้งแผ่นปิดชนิดรูพรุน (perforate tile) ส่วนด้านหลังตู้ 19” จะติดตั้งด้วยแผ่นปิดชนิดทึบ ด้วยความดันลมที่เหมาะสมจากระบบทําความเย็นจะทําให้มีลมส่วนหนึ่งถูกดันขึ้นสู่ด้านบนผ่านทางแผ่นปิดชนิดรูพรุนไปอยู่ด้านหน้าตู้ 19” โดยเซิร์ฟเวอร์ที่ติดต้ังภายในตู้ 19” จะดูดลมเย็นเข้าไป แล้วปล่อยลมร้อนออกที่ประตูหลัง จึงทําให้ด้านหลังของตู้ 19” ที่เป็นห้องปิดมีลมร้อนไหลผ่านอยู่ตลอดเวลา ลมร้อนนี้จะถูกดูดกลับไปยังระบบทําความเย็นผ่านทางระบบท่อหรือฝ้าเพดาน เพื่อเปลี่ยนให้เป็นลมเย็นกลับมาป้อนให้ด้านหน้าตู้ 19” ใหม่เป็นวัฏจักรแบบน้ีตลอดเวลา (จะเป็นการประหยัดพลังงานมากกว่ากรณีที่อุณหภูมิลมร้อนสูงมากๆ ให้ปล่อยทิ้งออกนอกศูนย์ข้อมูลแล้วดูดอากาศเย็นจากรอบๆ ศูนย์ข้อมูลกลับเข้ามาเปลี่ยนเป็นลมเย็นแทน)

ประโยชน์ของ Hot Aisle Containment:
– ใช้ระบบท่อสําาหรับการไหลกลับของลมร้อน
– อุณหภูมิภายในศูนย์ข้อมูลทั้งหมดจะเย็น
– อุปกรณ์ต่างๆ ในห้องก็จะทำงานภายใต้อากาศเย็น
– มีลมรั่วผ่านรอยต่อแผ่นปิดของพื้นยกลอยแต่ไม่มีผลเสีย เพราะลมรั่วในบริเวณที่เป็นอากาศเย็นอยู่แล้ว
– ประหยัดพลังงานเพราะสามารถใช้ลมเย็นที่มีอุณหภูมิสูง ข้ึนได้เล็กน้อย และใช้เวลาทํางานน้อยกว่า

สิ่งที่ต้องคํานึงถึง:
1. อุณหภูมิภายใน Aisle Containment จะประมาณ 30-40 องศาเซลเซียส
2. โดยปกติค่าใช้จ่ายในการติดตั้งจะสูงกว่าเมื่อเทียบกับ Cold Aisle Containment
3. ความสูงระหว่างตู้ 19” กับช่องปล่องไหลกลับของลมร้อน
4. ระบบดูดไหลกลับความร้อน

Cold Aisle Containment

Cold Aisle Containment เป็นพื้นที่ที่มีลมเย็นไหลผ่านอยู่ภายในห้องตลอดเวลาและมีลมร้อนไหลในส่วนที่เหลือท้ังหมดของศูนย์ข้อมูล มีโครงสร้างเป็นตู้ 19” ติดตั้งเป็นสองแถวหันด้านหน้า เข้าหากันติดตั้งประตูปิดที่ปลายทั้งสองด้านของแถวตู้19”แล้วปิดช่องว่างด้านบนตู้ 19” ด้วยวัสดุโปร่งใสเพื่อให้ระบบแสงสว่างจากเพดานสามารถส่องผ่านวัสดุโปร่งใสนี้ได้และทําให้ผู้ปฏิบัติงานสามารถทํางานได้โดยไม่ต้องติดตั้งระบบแสงสว่างเพิ่มเติม ซึ่งจะมีรูปแบบและทิศทางการไหลของลมเย็นและลมร้อน

ลักษณะการไหลเวียนของลมร้อนและลมเย็นสําหรับ Aisle Containment ชนิดลมร้อนและลมเย็นมีการไหลเวียนแบบเดียวกัน แต่จะแตกต่างกันที่โครงสร้างของอุปกรณ์ที่ประกอบเป็น Aisle containment เท่านั้น

Cold Aisle Containment จะมุ่งเน้นความสนใจไปที่การทําความเย็นให้กับอุปกรณ์ไอทีภายในตู้ 19” เท่านั้น โดยไม่ให้ความสนใจกับพื้นที่ที่อยู่ด้านนอก Aisle containment แต่อย่างใด และพื้นที่ด้านนอก Aisle containment ทั้งหมดนี้ก็จะมีลมร้อนที่มีอุณหภูมิใกล้เคียงกับลมร้อนที่ปล่อยออกจากด้านหลังตู้ 19” การติดตั้ง Cold Aisle Containment ให้กับศูนย์ข้อมูลเก่าที่เปิดให้บริการอยู่แล้วจะสามารถทําการติดต้ังได้ง่ายกว่า เพราะไม่มีความจําเป็นที่จะต้องปรับปรุงแก้ไขโครงสร้างอาคารเดิมแต่อย่างใด

ในการติดตั้ง Arion Cold Aisle Containment ทีมงาน RD&D ของเชอวาลฯ ได้ออกแบบให้สามารถติดตั้งเพิ่มเติมเข้ากับแถวของตู้ 19” Arion ได้โดยไม่ต้องมีการเจาะการยึดตายเข้ากับพื้นยกลอยและแก้ไขฝ้าเพดานแต่อย่างใด อย่างไรก็ดีต้องพิจารณาถึงระบบทำความเย็นสําหรับอุปกรณ์ที่ไม่ใช่อุปกรณ์ไอที ซึ่งอยู่ด้านนอก Aisle Containment ด้วย อุปกรณ์เหล่านี้จะต้องทํางานอยู่ภายใต้อุณหภูมิที่สูงกว่าเดิมหลายองศาเซลเซียส จึงต้องมั่นใจว่าอุปกรณ์เหล่านี้จะยังคงสามารถทํางานได้โดยไม่มีปัญหาด้วย

ประโยชน์ของ Cold Aisle Containment:
– ติดตั้งกับศูนย์ข้อมูลปัจจุบันที่เป็นระบบพื้นยกลอยและเปิดให้บริการอยู่แล้วโดยไม่ต้องปรับปรุงห้องใดๆ
– มุ่งเน้นการทําความเย็นให้แก่อุปกรณ์ไอทีภายในตู้ 19” เท่าน้ัน
– ความหนาแน่นของเซิร์ฟเวอร์ที่รองรับได้ข้ึนอยู่กับสภาพ แวดล้อมทั้งหมดของห้องเซิร์ฟเวอร์เอง
– ประหยัดพลังงานเพราะสามารถใช้ลมเย็นที่มีอุณหภูมิสูงขึ้นได้เล็กน้อย และใช้เวลาทํางานน้อยกว่า

 

สิ่งที่ต้องคํานึงถึง:
1. มีลมเย็นรั่วผ่านรอยต่อของแผ่นปิดขึ้นไปผสมกับลมร้อน ในพื้นที่ด้านบนที่อยู่นอก Aisle containment ได้ ดังน้ันการควบคุมความดันลมเย็นให้เหมาะสมจะช่วยประหยัดพลังงานและความสูญเสียจากการรั่วนี้ได้
2. อาจจําเป็นต้องติดตั้งระบบทำความเย็นสําหรับอุปกรณ์ที่อยู่ภายนอก Aisle containment
3. ระบบป้องกันเพลิงไหม้ที่ได้ออกแบบไว้ก่อนน้ีจะมีผลกระทบ โดยตรงหลังการติดต้ังระบบ
4. อุณหภูมิภายในศูนย์ข้อมูลสูงกว่าเดิม (30-40 องศาเซลเซียส)

จากการศึกษาข้อมูลหลายๆ แหล่ง ก็ยังไม่สามารถสรุปได้ว่าระบบ Hot Aisle Containment หรือ Cold Aisle Containment สามารถประหยัดพลังงานได้มากกว่ากัน โดยรวมแล้วสามารถประหยัดพลังงานได้ใกล้เคียงกัน ดังนั้นในการตัดสินใจว่าจะเลือก ติดตั้ง Aisle Containment แบบใดนั้นขึ้นอยู่กับดุลยพินิจของผู้ออกแบบระบบว่าสภาพแวดล้อมที่เป็นอยู่ปัจจุบันว่าเหมาะกับการติดต้ังใช้งานระบบใดกว่ากัน

อย่างไรก็ดีในการใช้งานระยะยาวนั้นการใช้ Hot Aisle Containment น่าจะประหยัดพลังงานได้ดีกว่า การรั่วของลมเย็นผ่านทางรอยต่อแผ่นปิดของพื้นยกลอยขึ้นมาด้านบนก็ไม่ทําให้ เกิดความสูญเสียใดๆ เพราะอากาศบนพื้นยกลอยก็เป็นอากาศเย็นอยู่แล้ว สภาพการทำงานก็ดีกว่าเพราะทั้งห้องจะเย็นตลอดเวลา ไม่เกิดอาการกระทบร้อนกระทบเย็นเวลาเดินเข้าไปทำงานที่หน้าตู้ 19” และไม่ต้องห่วงอุปกรณ์ที่ทำงานอยู่ภายนอก Hot Aisle containment ด้วย

จากข้อมูลอ้างอิงของ Energy Start ซึ่งเป็นหน่วยงาน EPA (Environmental Protection Agency) ของสหรัฐอเมริกาว่าระบบ Aisle Containment สามารถลดการใช้พลังงานลงได้ 5-10% และ หากคิดเฉพาะพลังงานที่ใช้กับชุดพัดลมดูดอากาศแล้ว ก็สามารถลดการใช้พลังงานลงได้ถึง 20-25% เลยทีเดียว

สนใจสอบถามรายละเอียดเพิ่มเติมหรือรับชมสินค้า ได้ที่
สำนักงานขายในประเทศ บริษัท เชอวาล อิเล็คโทรนิค เอ็นโคลสเชอร์ จำกัด
ชั้นจี โซนบี อาคารเอ็มดีทาวเวอร์ บางนา-ตราด 25
โทร 02 315 1504
อีเมลล์ domestic_sales@chevalgrp.com
เว็บไซต์ www.chevalgrp.com

from:https://www.enterpriseitpro.net/arion-aisle-containment-system/

ตามไปดู 10 สุดยอดซุปเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกในปี 2018

ล่าสุดอเมริกาได้กู้อันดับแรกสุดของสถิติซุปเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกอย่าง Top500 ได้เป็นผลสำเร็จ หลังจากตกเก้าอี้จากอันดับดังกล่าวตั้งแต่ปี 2555 โดยบริษัท Sunway TaihuLight ของจีนได้ขึ้นเป็นอันดับหนึ่งในช่วงสองปีที่ผ่านมา ขณะที่ Tiahne2 หรือ Milky Way-2 ของจีนเช่นกันก็เคยครองตำแหน่งดังกล่าวเป็นเวลาถึงสามปีก่อนหน้านั้น อย่างไรก็ดี ปัจจุบันถือว่าจีนยังคงครองจำนวนซุปเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลกมากที่สุดในอันดับ Top500 เป็นจำนวนถึง 202 เครื่องเลยทีเดียว

ซุปเปอร์คอมพิวเตอร์ ที่สหรัฐฯ ใช้ชิงเก้าอี้อันดับหนึ่งคืนมาจากจีนได้แก่ เครื่องของกระทรวงพลังงานสหรัฐฯ โดยขึ้นเป็นอันดับแรกสุดของรายการ Top500 ประจำเดือนมิถุนายน 2561 ที่เปิดเผยเมื่อวันจันทร์ที่ผ่านมา เบียดคู่แข่งอย่าง TaihuLight ที่อยู่ที่ศูนย์ซุปเปอร์คอมพิวเตอร์แห่งชาติของจีนที่เมืองอู๋ซีตกลงมาเป็นอันดับสอง

นอกจากนี้ อดีตแชปต์สามสมัยอย่าง Tianhe-2 ก็โดนแซงตกไปอยู่อันดับ 4 ตามหลังเครื่อง Sierra ที่เป็นซุปเปอร์คอมพิวเตอร์ตัวใหม่ของกระทรวงพลังงานสหรัฐฯ ที่ศูนย์วิจัยแห่งชาติ Lawrence Livermore ส่วนอันดับ 5 ปัจจุบันเป็นเครื่องใหม่อย่าง AI Bridging Cloud Infrastructure ที่พัฒนาขึ้นโดย Fujitsu ซึ่งตั้งอยู่ในสถาบันวิทยาศาสตร์และเทคโนโลยีอุตสาหกรรมชั้นสูงแห่งชาติของญี่ปุ่น

อย่างไรก็ดี เมื่อนับตามจำนวนเครื่องซุปเปอร์คอมพิวเตอร์ที่มีอยู่ในลิสต์ Top500 นี้แล้ว จีนก็ยังครองตำแหน่งที่ 202 เครื่อง ขณะที่อเมริกาตกอยู่อันดับสองที่ 124 เครื่อง ส่วนประเทศที่รองลงมาได้แก่ญี่ปุ่น (36 เครื่อง), อังกฤษ (22 เครื่อง), เยอรมัน (21 เครื่อง), และฝรั่งเศส (18 เครื่องตามลำดับ)

แต่ถ้าพิจารณาจากประสิทธิภาพของเครื่องโดยรวมทั้งประเทศแล้ว อเมริกาก็ถือเป็นอันดับหนึ่งที่กำลังเครื่องซุปเปอร์คอมพิวเตอร์ทั้งหมดคิดเป็น 38.2 เปอร์เซ็นต์ของเครื่องซุปเปอร์คอมพิวเตอร์ทั่วโลกที่อยู่ในรายการ Top500 ขณะที่จีนมีกำลังประมวลผลรวมทั้งประเทศคิดเป็น 29.1 เปอร์เซ็นต์

สรุปอันดับ 10 สุดยอดซุปเปอร์คอมพิวเตอร์ที่เร็วที่สุดในโลก จากลิสต์ Top500 ที่อัพเดทล่าสุดเดือนมิถุนายน 2561 ดังต่อไปนี้

1. Summit

พัฒนาโดย IBMสเปกเครื่องได้แก่ IBM Power System AC922, IBM POWER9 22C 3.07GHz, NVIDIA Volta GV100, Dual-rail Mellanox EDR InfiniBand มี 2.28 ล้านคอร์ ความเร็ว122.3Petaflopตั้งอยู่ที่สถาบันวิจัยแห่งชาติ Oak Ridge ของกระทรวงพลังงานสหรัฐฯ

2. Sunway TaihuLight

พัฒนาโดยNCRPC สเปกเครื่องได้แก่ Sunway MPP, Sunway SW26010 260C 1.45GHz, Sunwayมี 10.65 ล้านคอร์ ความเร็ว93 Petaflopตั้งอยู่ที่ศูนย์ซุปเปอร์คอมพิวเตอร์แห่งชาติของจีนที่เมืองอู๋ซี

3. Sierra

พัฒนาโดย IBM สเปกเครื่องได้แก่ IBM Power System S922LC, IBM POWER9 22C 3.1GHz, NVIDIA Volta GV100, Dual-rail Mellanox EDR InfiniBand มี 1.57 ล้านคอร์ ความเร็ว 71.6 Petaflopตั้งอยู่ที่ศูนย์วิจัยแห่งชาติ Lawrence Livermoreกระทรวงพลังงานสหรัฐฯ

4. Tianhe – 2A

พัฒนาโดย NUDTสเปกเครื่อง TH-IVB-FEP Cluster, Intel Xeon E5-2692v2 12C 2.2GHz, TH Express-2, Matrix-2000 มี 4.98 ล้านคอร์ ความเร็ว 61.46 Petaflopตั้งอยู่ที่ศูนย์ซุปเปอร์คอมพิวเตอร์แห่งชาติ เมืองกวางโจว ประเทศจีน

 5. AI Bridging Cloud Infrastructure

พัฒนาโดย Fujitsu สเปกเครื่อง PRIMERGY CX2550 M4, Xeon Gold 6148 20C 2.4GHz, NVIDIA Tesla V100 SXM2, Infiniband EDRมี 392,000 คอร์ ความเร็ว 19.88 Petaflopตั้งอยู่ที่สถาบันวิทยาศาสตร์และเทคโนโลยีอุตสาหกรรมชั้นสูงแห่งชาติของญี่ปุ่น

6. Piz Daint

พัฒนาโดย Cray สเปกเครื่อง Cray XC50, Xeon E5-2690v3 12C 2.6GHz, Aries interconnect , NVIDIA Tesla P100มี 362,000 คอร์ ความเร็ว 19.59 Petaflop ตั้งอยู่ที่ศูนย์ซุปเปอร์คอมพิวเตอร์แห่งชาติ สวิสเซอร์แลนด์

7. Titan

พัฒนาโดย Cray สเปกเครื่อง Cray XK7, Opteron 6274 16C 2.200GHz, Cray Gemini interconnect, NVIDIA K20xมี 560,640 คอร์ ความเร็ว 17.59 Petaflop อยู่ที่สถาบันวิจัยแห่งชาติ Oak Ridge ของกระทรวงพลังงานสหรัฐฯที่เดียวกับอันดับหนึ่ง

8. Sequoia

พัฒนาโดย IBMสเปกเครื่อง BlueGene/Q, Power BQC 16C 1.60 GHzใช้การเชื่อมต่อข้อมูลแบบปรับแต่งพิเศษ มี 1.57 ล้านคอร์ ความเร็ว 17.2 Petaflop ตั้งอยู่ที่ศูนย์วิจัยแห่งชาติ Lawrence Livermoreกระทรวงพลังงานสหรัฐฯ

9. Trinity

พัฒนาโดยCray สเปกเครื่อง Cray XC40, Intel Xeon Phi 7250 68C 1.4GHz, Aries interconnect มี 980,000 คอร์ ความเร็ว 14.1 Petaflop ตั้งอยู่ที่ศูนย์วิจัยแห่งชาติ Los Alamosกระทรวงพลังงานสหรัฐฯ

10. Cori

พัฒนาโดย Cray สเปกเครื่อง Cray XC40, Intel Xeon Phi 7250 68C 1.4GHz, Aries interconnect มี 622,000 คอร์ ความเร็ว 14 Petaflop ตั้งอยู่ที่สถาบันวิจัยแห่งชาติ Lawrence Berkeleyของกระทรวงพลังงานสหรัฐฯ

 

ที่มา : Datacenterknowledge

from:https://www.enterpriseitpro.net/world-s-10-fastest-supercomputers/

Dropbox เตรียมยกเครื่องคลาวด์สตอเรจใหม่แบบ Higher-Density Storage

Dropbox ประกาศแผนที่จะปรับเปลี่ยนโครงสร้างพื้นฐานด้านสตอเรจบนคลาวด์ใหม่ เพื่อหันมาใช้เทคโนโลยีสตอเรจแบบความหนาแน่นสูงโดยการเปลี่ยนจากไดรฟ์สตอเรจเดิมมาใช้ไดรฟ์Shingled Magnetic Recording (SMR) ที่จะช่วยลดภาระการใช้พลังงานและลดค่าใช้จ่ายในการดำเนินงานได้เป็นอย่างมาก

หัวหน้าทีมงานด้านฮาร์ดแวร์ของ Dropbox ให้สัมภาษณ์ว่า แผนดังกล่าวได้เริ่มดำเนินการมาแล้วต่อเนื่องถึง 3 ปี ในการปรับปรุงซอฟต์แวร์ และออกแบบซอฟต์แวร์ใหม่ให้ใช้ประโยชน์จากระบบสตอเรจได้มากที่สุด โดย Dropbox มีแผนที่จะเปิดซอฟต์แวร์ที่พัฒนาได้นี้ออกมาเป็นโปรเจ็กต์โอเพ่นซอร์ส เพื่อสนับสนุนการใช้ไดรฟ์ SMR มาเป็นสตอเรจหลักในดาต้าเซ็นเตอร์

ก่อนหน้านี้ Dropbox ได้ย้ายข้อมูลผู้ใช้จาก Amazon Web Services มาอยู่บนคลาวด์ของตนเอง ซึ่งเมื่อก่อนใช้ฮาร์ดไดรฟ์ในรูปของ Perpendicular Magnetic Recording (PMR)ที่เก็บข้อมูลบนดิสก์แบบสุ่ม ขณะที่ไดรฟ์ SMR ใหม่นี้สามารถจัดเก็บข้อมูลได้อย่างเป็นระเบียบเหมือนเรียงกระเบื้องหลังคาบ้าน จนทำให้เก็บข้อมูลได้มากขึ้นและมีประสิทธิภาพดีกว่า

ทั้งนี้ Dropbox เลือกใช้ไดรฟ์ SMR จาก Western Digital ขนาด 14TB รุ่น Ultrastar Hs14 จำนวนหลายร้อยเพตาไบต์ พร้อมทั้งกล่าวว่าตนเองเป็นบริษัทแรกที่ทดสอบและติดตั้งไดรฟ์ SMR ขนาดใหญ่เพื่อใช้งานเชิงธุรกิจ โดยวางแผนว่าจะหันมาใช้ไดรฟ์ SMR ให้ได้ถึง 25 เปอร์เซ็นต์ของสตอเรจทั้งหมดภายในปี 2563 นี้

ที่มา : www.datacenterknowledge.com

from:https://www.enterpriseitpro.net/dropbox-higher-density-storage/

Lenovo พัฒนาระบบทำความเย็นด้วยของเหลวรุ่นใหม่ สำหรับดาต้าเซ็นเตอร์

เมื่อต้นสัปดาห์ที่ผ่านมา Lenovo ได้เปิดตัวระบบทำความเย็นสำหรับดาต้าเซ็นเตอร์ใหม่สองแบบ ซึ่งเป็นชนิดที่ใช้ของเหลวในการทำความเย็นทั้งระบบ โดยเน้นการจ่ายน้ำเข้าระบบทำความเย็นอย่างง่ายโดยไม่ต้องมีการดัดแปลงโครงสร้างพื้นฐานของดาต้าเซ็นเตอร์เดิม

จุดเด่นของระบบทำความเย็นนี้คือ “ฮีตซิงค์แบบพิเศษ” ที่เต็มไปด้วยของเหลวสำหรับถ่ายเทความร้อน ทำให้สามารถติดตั้งหน่วยประมวลผลที่หนาแน่นสูงขึ้นได้ขณะที่ลดความจำเป็นในการเปิดทางไหลเวียนอากาศเพื่อเข้ามาทำความเย็นแก่เซิร์ฟเวอร์

ปกติแล้วเซิร์ฟเวอร์ที่มีซีพียูสองตัวนั้น อากาศจะไหลผ่านซีพียูตัวแรกก่อนไปยังตัวถัดไป ซึ่งอากาศที่มายังซีพียูตัวถัดมานี้มีอุณหภูมิเพิ่มขึ้นจากความร้อนของซีพียูตัวแรกไปแล้ว แต่ฮีตซิงค์ของ Lenovo ใหม่ที่เรียกว่า Thermal Transfer Module นี้ จะใช้ของเหลวข้างในเพื่อพาความร้อนออกจากซีพียูทั้งสองตัวพร้อมกัน โดยมีพื้นที่ในการระบายความร้อนมากกว่าก่อนจะปล่อยของเหลวทิ้ง

คาดว่าระบบ TTM ใหม่นี้จะสามารถวางจำหน่ายได้ภายในสิ้นเดือนในรูปของออพชั่นเวลาซื้อเซิร์ฟเวอร์ความหนาแน่นสูงของ Lenovo ซึ่งการเลือกใช้ระบบ TTM นั้นเพิ่มราคาแค่ไม่เกิน 25 ดอลลาร์สหรัฐฯ ต่อตัวเซิร์ฟเวอร์ โดยสามารถทำความเย็นแก่ซีพียูขนาด 205 วัตต์ได้โดยไม่จำเป็นต้องทำระบบไหลเวียนน้ำเพิ่มเติมในดาต้าเซ็นเตอร์

ที่มา : Datacenterknowledge

from:https://www.enterpriseitpro.net/lenovo-aims-new-liquid-cooling/

กูเกิ้ลกว้านซื้อที่ดินในยุโรปมากกว่า 400 ไร่ เพื่อสร้างดาต้าเซ็นเตอร์

บริษัทแม่ของกูเกิ้ลอย่าง Alphabet ได้ซื้อที่ดินในเนเธอร์แลนด์กว่า 70 เฮกเตอร์ (ประมาณ 438 ไร่) อันเป็นส่วนหนึ่งของแผนขยายดาต้าเซ็นเตอร์ในยุโรป โดยกำลังพิจารณาว่าจะสร้างในเขตฮอลแลนด์เหนือเพิ่มตามความต้องการทางธุรกิจที่เพิ่มขึ้น

ปัจจุบันกูเกิ้ลมีดาต้าเซ็นเตอร์ของตนเองในเมือง Eemshaven ในเนเธอร์แลนด์อยู่แล้ว แต่เมื่อต้นปีกูเกิ้ลได้ประกาศที่จะลงทุนเพิ่มอีก 500 ล้านยูโรเพื่อขยายดาต้าเซ็นเตอร์ นอกจากที่ดินในฮอลแลนด์แล้ว กูเกิ้ลยังได้กว้านซื้อที่ดินเพิ่มทั้งในเดนมาร์ก, ลักเซมเบอร์ก, และสวีเดนด้วย อีกทั้งเมื่อเดือนกุมภาพันธ์ยังกล่าวว่าตัวเองกำลังเตรียมลงทุนในเบลเยี่ยมด้วย

การขยายดาต้าเซ็นเตอร์ในยุโรปครั้งนี้สร้างรายได้แก่บริษัทในท้องถิ่นเป็นอย่างมาก เช่น บริษัท Schneider Electric SE ในฝรั่งเศสกล่าวว่าตนเองได้คำสั่งซื้อเครื่องจักรจำนวนมาก ขณะที่ทางนอร์เวย์กำลังจูงใจให้ยักษ์ใหญ่ด้านไอทีเข้ามาลงทุนในประเทศด้วยไฟฟ้าพลังงานน้ำปริมาณมหาศาลของตัวเอง

อย่างไรก็ดี ไม่ใช่ว่าทุกพื้นที่ในยุโรปจะฮอตฮิตสำหรับการตั้งดาต้าเซ็นเตอร์ อย่างเมื่อไม่นานมานี้ ทางแอปเปิ้ลได้ประกาศระงับแผนการลงทุนสร้างดาต้าเซ็นเตอร์มูลค่ากว่าพันล้านดออลาร์ในเขตไอร์แลนด์ตะวันตก เป็นต้น

ที่มา : http://www.datacenterknowledge.com/google-alphabet/google-buys-more-land-europe-data-center-construction

from:https://www.enterpriseitpro.net/alphabet-google-buy-land-europe/

โอ้วว !! นี่คือ Data Center ที่ไมโครซอฟท์วางแผนจะเอาไว้ใต้มหาสมุทร

หลังจากไมโครซอฟท์พัฒนาต้นแบบเรือดำน้ำขนาด 40 ฟุตที่จุเซิร์ฟเวอร์เต็มเรือ พร้อมจมลงใต้มหาสมุทรลึกกว่า 117 ฟุต ในศูนย์พลังงานทางทะเลยุโรปใกล้กับเกาะออคเนย์ของสก็อตแลนด์นั้น หลายคนต่างตั้งความหวังว่าจะเป็นการปฏิวัติวงการดาต้าเซ็นเตอร์ใหม่ที่ใช้พลังงานน้อยลง, ได้ระบบทำความเย็นแบบไม่มีค่าใช้จ่าย, และสามารถตั้งอยู่ใกล้กับแหล่งชุมชนได้

แม้การสร้างเรือดำน้ำมีต้นทุนสูงมาก แต่ค่าใช้จ่ายในการดูแลระยะยาวอาจจะคุ้มกว่ามากเช่นกัน ไมโครซอฟท์มองว่าโครงสร้างดาต้าเซ็นเตอร์ใต้น้ำโดยรวมนั้นเรียบง่ายมากกว่า และเป็นหนึ่งเดียวกันกว่าดาต้าเซ็นเตอร์ปกติบนพื้นโลก

ดาต้าเซ็นเตอร์ใต้น้ำนี้ประกอบด้วย 12 Rack ที่มีเซิร์ฟเวอร์จำนวน 864 เครื่องพร้อมบอร์ด FPGA ซึ่งแบ่งออกมาจากดาต้าเซ็นเตอร์สำหรับ Microsoft Azure บนภาคพื้นดิน โดยอาศัยบริษัทผลิตเรือชั้นนำอย่าง Naval Group ทำเคสขนาดใหญ่ทรงกระบอกครอบทับไว้อีกชั้นหนึ่งจากนั้นจึงใส่รถบรรทุกวิ่งมาจากฝรั่งเศส ข้ามเรือผ่านช่องแคบอังกฤษ

microsoft

ไมโครซอฟท์ มองช่วงเวลาในการกู้เรือเซิรฟเวอร์ดำน้ำขึ้นมาเปลี่ยนรุ่นฮาร์ดแวร์หรือบำรุงรักษาครั้งหนึ่งอยู่ในช่วง 5 – 10 ปีเหมือนกับดาต้าเซ็นเตอร์ทั่วไป ซึ่งคุ้มกับการประหยัดค่าใช้จ่ายในการดูแล สำหรับการระบายความร้อนก็ไม่จำเป็นต้องใช้ตัวระบายภายนอกอีก แค่ใช้เทคนิคเดียวกันกับที่ทำความเย็นเรือดำน้ำซึ่งสามารถรองรับกำลังการใช้พลังงานขนาดสูงมากได้เป็นอย่างดี

ที่มา : datacenterknowledge

from:https://www.enterpriseitpro.net/data-center-microsoft-underwater/