คลังเก็บป้ายกำกับ: SERVER_AND_STORAGE

HPE ออกแบบ Eagle ระบบ Supercomputer ที่นำความร้อนกว่า 97% ที่เกิดขึ้นกลับมาใช้ได้ใหม่

HPE ได้ประกาศถึงการสร้างวระบบ Supercomputer ที่มีชื่อว่า Eagle ให้กับหน่วยงาน National Renewable Energy Laboratory (NREL) ที่มีประสิทธิภาพสูงกว่าระบบเดิมที่ใช้งานอยู่ถึง 3.5 เท่า และยังใช้พลังงานได้อย่างมีประสิทธิภาพมากกว่า ด้วยการนำความร้อนที่เกิดขึ้นจากระบบ 97% กลับมาใช้งานใหม่

 

Credit: HPE

 

Eagle นี้ถูกออกแบบมาเพื่อรองรับงานประมวลผลประสิทธิภาพสูงเพื่อใช้ในการวิจัยด้านพลังงาน เช่น การใช้ยานยนต์, การประมวลผลพลังงานลม และการทำวิทยาศาสตร์ข้อมูลในรูปแบบต่างๆ อีกทั้งยังมุ่งเน้นไปที่การสร้างระบบ Supercomputer ให้ประหยัดพลังงานและสร้างมลพิษน้อยที่สุด โดยมีแนวคิดในการออกแบบและสร้างที่น่าสนใจดังนี้

  • มีการใช้ Hydrogen Fuel Cell ภายใน Data Center
  • มีการนำความร้อนที่เกิดขึ้นจาก Data Center กว่า 97% กลับไปใช้ใหม่ในส่วนอื่นๆ ของอาคาร
  • ใช้ HPE SGI 8600 ที่รองรับการประมวลผลได้ระดับ Petaflops ร่วมกับ Intel Xeon Scalable Processor
  • ใช้ Mellanox EDR InfiniBand เป็นระบบเครือข่าย
  • ใช้คอมพิวเตอร์ทั้งสิ้น 2,144 เครื่องแบบ Dual-Socket รวมทั้งสิ้น 76,104 Core
  • มีประสิทธิภาพการประมวลผลรวม 8 Petaflops

Eagle นี้คาดว่าจะเปิดใช้งานได้ภายในเดือนมกราคม 2019

 

ที่มา: https://news.hpe.com/hpe-triples-performance-and-enhances-energy-efficiency-in-new-supercomputer-for-national-renewable-energy-laboratory-nrel/

from:https://www.techtalkthai.com/hpe-designs-eagle-supercomputer/

Advertisements

L1 Terminal Fault: 3 ช่องโหว่ล่าสุดบน Intel CPU ที่ทำให้เข้าถึงข้อมูลบน L1 Cache ได้

ปีนี้แนวโน้มการค้นหาช่องโหว่บน CPU ถือว่ามาแรงมาก และล่าสุดนี้ทาง Intel ก็ได้ออกมาเผยถึง 3 ช่องโหว่ความรุนแรงระดับสูงบน CPU ที่ทำให้ผู้โจมตีสามารถเข้าถึงข้อมูลที่ถูกจัดเก็บเอาไว้ใน L1 Cache บน CPU ได้ และเรียก 3 ช่องโหว่นี้รวมกันว่า L1 Terminal Fault หรือ L1TF นั่นเอง ซึ่งช่องโหว่เหล่านี้ก็ส่งผลกระทบกับทั้ง Application, Kernel, Virtual Machine (VM), Software Guard Extensions (SGX) และ System Management Mode (SMM) ทำให้เหล่าผู้ดูแลระบบต้องเตรียมติดตามข่าวและอัปเดตระบบทั้งหมดในอีกไม่ช้านี้

 

Credit: ShutterStock.com

 

L1TF นี้นับเป็นช่องโหว่สำคัญอีกช่องโหว่หนึ่งที่ถูกเปิดเผยออกมาในปีนี้ และเป็นช่องโหว่ที่อาจนำมาซึ่งการโจมตีในกลุ่ม Speculative Side-Channel Attack ได้ โดยช่องโหว่ทั้ง 3 ได้รับรหัสดังนี้

  • CVE-2018-3615 ส่งผลกระทบกับ Intel SGX โดยต้องทำการอัปเดต Microcode เพื่อแก้ไข
  • CVE-2018-3620 ส่งผลกระทบกับระบบปฏิบัติการและ SMM ซึ่งต้องทำการอัปเดต Kernel ของระบบปฏิบัติการและทำการอัปเดต Microcode ของ SMM เพื่อแก้ไข
  • CVE-2018-3646 ส่งผลกระทบกับ Hypervisor และ VM ต้องทำการอัปเดตทั้ง Microcode, OS, Hypervisor เพื่อแก้ไข

หลังจากนี้ก็ต้องเตรียมตัวอัปเดต Patch กันให้ดี ซึ่งปัจจุบันนี้ Canonical ก็ได้เริ่มออก Patch อุดช่องโหว่มาให้กับ Ubuntu แล้ว และ Microsoft Azure, Amazon Web Services และ Google Cloud Platform เองก็เริ่มมีการรับมือกับช่องโหว่ดังกล่าวแล้วเหมือนกัน ส่วนผู้พัฒนาระบบปฏิบัติการ, Hypervisor และผู้ให้บริการ Cloud รายอื่นๆ นั้นก็คงมีข่าวอัปเดตตามออกมาในไม่ช้านี้

สำหรับรายละเอียดฉบับเต็มเกี่ยวกับ L1TF สามารถศึกษาได้ที่ https://software.intel.com/security-software-guidance/software-guidance/l1-terminal-fault ส่วนด้านล่างนี้เป็นคลิปอธิบายช่องโหว่ L1TF จากทาง Intel ครับ

 

 

ที่มา: https://www.theregister.co.uk/2018/08/14/intel_l1_terminal_fault_bugs/, https://www.intel.com/content/www/us/en/security-center/advisory/intel-sa-00161.html

from:https://www.techtalkthai.com/l1-terminal-fault-vulnerabilities-on-intel-cpu-were-disclosed/

เปิดตัว NVIDIA Quadro RTX การ์ดจอตระกูลใหม่สำหรับงานด้านวิดีโอและกราฟฟิกโดยเฉพาะ

ในงาน SIGGRAPH ทาง NVIDIA ได้ออกมาเปิดตัวการ์ดจอตระกูลใหม่ที่ใช้สถาปัตยกรรม Turing ภายใต้ผลิตภัณฑ์ตระกูล NVIDIA Quadro RTX GPU ที่เปิดตัวมา 3 รุ่น พร้อมเปิดตัว Quadro RTX Server ซึ่งเป็น Reference Architecture สำหรับระบบ Virtual Workstation ที่ทำงานอยู่ภายใน Data Center ด้วย

 

Credit: NVIDIA

 

NVIDIA Quadro RTX GPU นี้ถูกออกแบบมาเพื่อรองรับงานด้านภาพยนตร์, วิดีโอ, การออกแบบยานยนต์, การออกแบบเชิงสถาปัตยกรรม และการแสดงผลข้อมูลทางวิทยาศาสตร์โดยเฉพาะ และมีเทคโนโลยีใหม่ๆ ดังนี้

  • เพิ่ม RT Core สำหรับการทำ Real-time Ray Tracing สำหรับวัตถุและสภาพแวดล้อมต่างๆ ได้ด้วยเงาและเงาสะท้อนที่แม่นยำ
  • เพิ่ม Turing Tensor Core สำหรับการทำ Deep Neural Network Training และ Inference เพื่อรองรับงานด้าน AI
  • ใช้สถาปัตยกรรม Turing Streaming Multiprocessor ที่มี CUDA Core สูงสุดถึง 4,608 Core และรองรับการประมวลผล Floating Point ได้มากถึง 16 ล้านล้าน Operation ต่อวินาทีพร้อมๆ กับการประมวลผล Integer ได้มากถึง 16 ล้านล้าน Operation ต่อวินาที
  • เพิ่มเทคโนโลยี Programmable Shading ขั้นสูง รองรับการแสดงผลภาพที่มีความซับซ้อนยิ่งขึ้น
  • ใช้ Samsung 16Gb GDDR6 รองรับข้อมูลขนาดใหญ่ขึ้นด้วยประสิทธิภาพการทำงานที่สูงขึ้นได้
  • เชื่อม GPU 2 ชุดเข้าด้วยกันได้ผ่าน NVIDIA NVLink ทำให้มีหน่วยความจำรวมกันได้สูงสุด 96GB และรับส่งข้อมูลได้ด้วยความเร็ว 100GB/s
  • รองรับการเชื่อมต่อผ่าน USB Type-C และ VirtualLink ซึ่งเป็นมาตรฐานเปิดใหม่สำหรับการแสดงผลและจ่ายพลังงานเพื่อรองรับ Virtual Reality (VR) Headset โดยเฉพาะ
  • เพิ่มเทคโนโลยีสำหรับ VR เช่น Variable Rate Shading, Multi-View Rendering, VRWorks Audio

สำหรับ Spec ของ GPU 3 รุ่น เป็นดังนี้

Credit: NVIDIA

 

ราคาของ Quadro RTX 8000 จะอยู่ที่ประมาณ 10,000 เหรียญ ส่วนรุ่น 6000 จะอยู่ที่ 6,300 เหรียญ และรุ่น 5000 จะอยู่ที่ 2,300 เหรียญ

ส่วน NVIDIA Quadro RTX Server นี้จะเป็นการใช้ Quadro RTX GPU ร่วมกับ Quadro Infinity Software ที่จะเปิดตัวในต้นปี 2019 เพื่อช่วยให้การ Render ภาพนั้นสามารถทำได้แบบ On-demand ที่ Data Center ทำให้ผู้ใช้งานหลายคนสามารถเข้าถึง GPU กลางชุดเดียวกันและใช้งานร่วมกันเพื่อ Render ได้

 

ที่มา: https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu

from:https://www.techtalkthai.com/nvidia-quadro-rtx-with-turing-architecture-is-announced/

Intel ชี้ โลกเข้าสู่ยุค Data-Centric Era เผยเทคโนโลยีใหม่เตรียมรุกปี 2019 – 2020

ในงานสัมมนา Intel Data-Centric Innovation Summit ทาง Intel ได้ออกมาเผยถึงเทคโนโลยีและแนวโน้มใหม่ๆ สำหรับปี 2019 – 2020 ที่น่าสนใจดังนี้

 

Credit: Intel

 

  • เมื่อปี 2017 Intel มียอดขายของ Intel Xeon ในตลาด AI แล้ว 1,000 ล้านเหรียญ และคาดว่าในปี 2022 ตลาดนี้จะมีมูลค่ามากถึง 200,000 ล้านเหรียญเลยทีเดียว
  • 90% ของข้อมูลในปัจจุบันนี้ถูกสร้างขึ้นมาภายในเวลาเพียงแค่ 2 ปีที่ผ่านมา และในปี 2025 ข้อมูลจะมีเพิ่มขึ้นอีกหลายสิบเท่าจนมีขนาดรวม 163 Zettabyte
  • เทคโนโลยีในปัจจุบันสามารถนำข้อมูลเพียง 1% มาใช้งานได้จริงเท่านั้น ดังนั้นเทคโนโลยีด้านการประมวลผลจึงยังต้องการการพัฒนามากยิ่งขึ้นไปอีก
  • Intel มีการพัฒนาเทคโนโลยี Silicon Photonics เพื่อก้าวข้ามข้อจำกัดของการรับส่งข้อมูลด้วยกระแสไฟฟ้า ด้วยการใช้แสงเลเซอร์แทน ซึ่งจะช่วยลดค่าใช้จ่ายในการผลิตลง, ลดพลังงานที่ต้องใช้ลง และมี Banwidth ที่สูงขึ้น
  • Intel เปิดตัวผลิตภัณฑ์ SmartNIC ใหม่ภายใต้ชื่อ Cascade Glacier ที่ใช้ Intel Arria 10 FPGA สำหรับเร่งการประมวลผลด้านเครือข่ายและช่วยให้ Intel Xeon ทำงานได้เต็มประสิทธิภาพยิ่งขึ้น โดยสินค้าตัวอย่างจะถูกส่งให้ลูกค้าบางกลุ่มภายในต้นปี 2019
  • Intel วางเทคโนโลยี Intel Optane DC Persistent Memory เอาไว้เป็น Tier ใหม่ของหน่วยความจำและระบบจัดเก็บข้อมูล อยู่กึ่งกลางระหว่าง DRAM และ SSD โดยปัจจุบันในการทดสอบ Intel Optane DC Persistent Memory สามารถเพิ่มประสิทธิภาพให้ระบบวิเคราะห์ข้อมูลได้สูงสุดถึง 8 เท่า เมื่อเทียบกับระบบที่ใช้ DRAM เพียงอย่างเดียว
  • ปัจจุบัน Google, CERN, Huawei, SAP และ Tencent ได้เริ่มใช้งาน Intel Optane DC Persistent Memory แล้ว ส่วนการวางจำหน่ายในตลาดจะเกิดขึ้นในปี 2019 พร้อมกับ Intel Xeon รุ่นใหม่
  • Intel กำลังเตรียมเปิดตัวผลิตภัณฑ์ในกลุ่ม Intel QLC 3D NAND ในอนาคต โดยมี Tencent ได้ทดลองใช้งานเทคโนโลยีดังกล่าวแล้ว
  • ในไตรมาสที่ 2 ของปี 2018 ที่ผ่านมา Intel ได้ขาย Intel Xeon Scalalbe Processor ไปแล้วมากกว่า 2 ล้านชุด และสัปดาห์แรกของไตรมาสที่ 3 ก็ขายไปแล้วมากกว่า 1 ล้านชุด
  • เทคโนโลยีประมวลผลทางด้าน AI ของ Intel พัฒนาไปอย่างรวดเร็วมาก โดยหากเทียบประสิทธิภาพย้อนไปถึงเมื่อปี 2014 ตอนนี้ Intel เร่งประสิทธิภาพการประมวลผลมาได้ 200 เท่าแล้ว
  • Intel Xeon Scalable Processor รุ่นถัดไปจะใช้ชื่อว่า Cascade Lake และใช้เทคโนโลยี 14nm โดยจะทำงานร่วมกับ Intel Optane DC Persistent Memory ได้ และมีความสามารถใหม่สำหรับประมวลผล AI โดยเฉพาะชื่อว่า Intel DL Boost ที่จะเร่งให้การทำ Inference สำหรับ Deep Learning เร็วขึ้นเป็นอย่างมาก เช่น การทำ Image Recognition จะเร็วขึ้นถึง 11 เท่า โดยมีแผนจะเปิดตัวภายในปลายปี 2018 นี้
  • ส่วน Intel Xeon Scalable Processor รุ่นถัดจากนั้นจะใช้ชื่อว่า Cooper Lake โดยจะยังคงใช้เทคโนโลยี 14nm และจะมีการเพิ่มเทคโนโลยีใหม่ๆ ทางด้านประสิทธิภาพ, รองรับ I/O แบบใหม่ๆ, เปิดตัว Intel DL Boost รุ่นใหม่ที่จะเร่งความเร็วในการทำ Training และเปิดตัวนวัตกรรมใหม่ๆ สำหรับ Intel Optane DC Persistent Memory โดยมีแผนจะเปิดตัวในปี 2019
  • ส่วน Intel Xeon Scalable Processor รุ่นถัดจากนั้นไปอีกจะใช้ชื่อว่า Ice Lake โดยจะใช้เทคโนโลยี 10nm และสามารถทำงานร่วมกับแพลตฟอร์มของ Cooper Lake ได้ โดยจะเปิดตัวในปี 2020
  • มีการเปิดตัว Intel Select Solutions ใหม่ 3 ด้าน ได้แก่ AI, Blockchain และ SAP HANA

 

ที่มา: https://newsroom.intel.com/editorials/data-centric-innovation-summit/

from:https://www.techtalkthai.com/intel-updates-for-2019-and-2020-with-data-centric-era-theme/

เปิดตัว Intel Ruler SSD ความจุ 32TB สำหรับ Server โดยเฉพาะ

ได้ฤกษ์ประกาศเปิดตัวอย่างเป็นทางการกับ Intel Ruler SSD หรือ Intel SSD DC P4500 ซึ่งเป็น Solid State Drive (SSD) ใน Form Factor แบบใหม่ที่มีความยาวเหมือนไม้บรรทัดเพื่อให้สามารถติดตั้งได้จำนวนมากภายใน 1U Server และมีความจุมากถึง 32TB ต่อชุด

 

Credit: Intel

 

ภายใน Intel Ruler SSD นี้บรรจุ Intel 3D NAND ที่ซ้อนกันถึง 64 ชั้นเพื่อให้ได้ความจุสูงสุด และการออกแบบให้มีรูปทรงแบบไม้บรรทัดนี้ก็ทำให้ภายใน 1U Server นั้นสามารถติดตั้ง Intel Ruler SSD ได้มากถึง 32 ชุด และมีความจุรวมกันทั้งสิ้นเกินกว่า 1PB เลยทีเดียว

หากเทียบกับเทคโนโลยี Hard Disk Drive (HDD) แล้ว Intel Ruler SSD นี้จะกินพื้นที่เพียงแค่ 1/12 ของ HDD เท่านั้น ในขณะที่กินไฟน้อยกว่ากันถึง 10 เท่า

ปัจจุบันมีธุรกิจด้าน IT ขนาดใหญ่อย่าง IBM, Microsoft และ Tencent ได้เริ่มใช้ Intel Ruler SSD ภายใน Cloud และ Data Center ของตนเองแล้ว ในขณะที่ผู้ผลิต Server อย่าง Supermicro เองก็รองรับ Intel Ruler SSD ด้วยแล้วเช่นกัน

 

ที่มา: https://newsroom.intel.com/news/worlds-densest-totally-silent-solid-state-drive/

from:https://www.techtalkthai.com/intel-ruler-ssd-with-32tb-capacity-is-officially-launched/

กระบวนการเก็บข้อมูลบนเครื่องกับบน Cloud ต่างกันอย่างไร

ทุกวันนี้เราอยู่ในโลกที่แต่ละวันมีข้อมูลเกิดขึ้นมหาศาล ซึ่งบทความจาก Spectrum.IEEE นี้ได้เขียนถึงกระบวนการจัดเก็บข้อมูลบน Storage ของ Cloud และแบบ Local ตั้งแต่ถูกเก็บและถูกเรียกกลับมานั้นเหมือนหรือต่างอย่างไร โดยเป็นบทความเชิงภาพรวมที่แสดงให้เห็นถึงข้อมูลที่อยู่บน Cloud 

credit : spectrum.ieee.org

กระบวนการเขียนและอ่านของ Cloud และ Local Storage (ดูรูปตามด้านบน) เป็นดังนี้

การเก็บข้อมูลบน Local SSD 

1.เมื่อเรากด เซฟ โปรแกรมจะเรียก Firmware เพื่อค้นหาข้อมูลจะถูกเก็บที่ไหนบนไดร์ฟ
2.ข้อมูลจะถูกเก็บเป็น Block และขั้นตอนการเขียน บิตจะถูกเปลี่ยนจาก 1 เป็น 0 หมายถึงมีข้อมูล (พูดง่ายๆ คือ 1 คือบอกว่า Block นั้นว่างนะเขียนได้) จากนั้น OS จะเขียนข้อมูลเป็นรูปแบบบิต 1 ที่ถูกต้อง
3.Flash มีแนวโน้มของความเสียหายในการเก็บบิตซึ่งอาจจะส่งผลต่อบิตที่อยู่ใกล้ๆ กันด้วย จึงต้องมีกระบวนการทำ Error-correcting เพื่อชดเชยบิตที่เสียหายในไบต์ ดังนั้นแต่ละบิตในไบต์ของข้อมูลจะถูกเก็บอยู่ใน Block ต่างกันเพื่อลดโอกาสที่หลายบิตจะเสียหายมากเกินไป
4.การลบ Block ทำได้ช้าเมื่อมีการอัปเดตส่วนหนึ่งของข้อมูลใน Block โดยถ้าทำได้การอัปเดตจะถูกเขียนในส่วนหนึ่งที่ว่างของ Block และข้อมูลเดิมจะถูกเขียนว่าเป็นสถานะ invalid
5.การอ่านข้อมูลกลับอาจเกิดความผิดพลาดแต่การทำ Error-correcting จะมาช่วยแก้ปัญหานี้ หากจำนวนบิตไม่ผิดพลาดมากเกินไป

การเก็บข้อมูลบน Cloud

1.ข้อมูลถูกเก็บบนเครื่องในรูปแบบของ Block
2.ข้อมูลจะถูกส่งผ่านอินเทอร์เน็ตไปยังดาต้าเซนเตอร์
3.ข้อมูลจะถูกเขียนส่งในฮาร์ดดิสก์หรือ SSD อย่างน้อย 2 แห่ง (อาจจะตั้งอยู่คนละไซต์กันเลย) เพื่อป้องกันการสูญหาย (Redundancy) หรือการมีการ Backup ลงเทป (เจ้าของบทความยอมรับว่าไม่มีผู้ให้บริการ Cloud รายไหนทำให้แบบนั้น)
4.การเขียนและอ่านทั้งหมดเหมือนกับใน Local SSD ที่อธิบายในข้างต้น

credit : spectrum.ieee.org
ภาพรวมของการเก็บข้อมูลบน Cloud (ภาพด้านบน)
  • ข้อมูลมีต้นทางมาจากหลากหลายแห่งบนอินเทอร์เน็ตจากช่องทางต่างๆ
  • ดาต้าเซ็นเตอร์ที่เรียกว่า Cloud ก็คือสถานที่เป็นคลังเก็บข้อมูลขนาดใหญ่นั่นเอง
  • มีการเก็บข้อมูลลงบน Storage ได้ 3 แบบคือ เทป ฮาร์ดดิสก์ และ SSD
  • ความมั่นคงปลอดภัยของข้อมูลที่ทำได้บน Cloud คือ การเข้ารหัสและใช้งาน Firewall ซึ่งส่วนใหญ่เป็นเรื่องพื้นฐานของผู้ให้บริการ Cloud ในปัจจุบันมีให้เลือกใช้ได้ อย่างไรก็ตามการเข้ารหัสข้อมูลและ Firewall เป็นการเพิ่มเลเยอร์ที่ต้องยอมรับว่าจะเพิ่มเวลาในการส่งและรับข้อมูล

ที่มา : https://spectrum.ieee.org/computing/hardware/a-view-to-the-cloud

from:https://www.techtalkthai.com/how-local-storage-and-cloud-store-data/

NetApp จับมือ NVIDIA เปิดตัว NetApp ONTAP AI ระบบประมวลผลสำหรับงาน AI โดยเฉพาะ

NetApp และ NVIDIA ได้ออกมาประกาศเปิดตัวโซลูชันระบบประมวลผลประสิทธิภาพสูงสำหรับ AI โดยเฉพาะร่วมกัน ภายใต้ชื่อ NetApp ONTAP AI

 

Credit: NetApp

 

ภายใน NetApp ONTAP AI นี้จะมีส่วนประกอบดังนี้

  • NVIDIA DGX-1 เครื่อง Server สำเร็จรูปสำหรับงาน Deep Learning (DL) โดยเฉพาะ โดยมีการใช้งาน NVIDIA GPU Cloud Deep Learning Software Stack ที่จะช่วยให้การนำ GPU ไปใช้ประมวลผล AI นั้นเป็นไปได้ด้วยประสิทธิภาพในระดับสูงสุด
  • NetApp AFF Systems ระบบ Cloud-Connected Flash Storage ที่ใช้ NVMe ทั้งหมด โดย NetApp AFF A800 นี้ก็มีประสิทธิภาพในระดับสูงที่จะช่วยให้การส่งข้อมูลไปยัง NVIDIA DGX-1 มีความเร็วถึง 300GB/s ต่อ All-Flash Cluster ซึ่งถือว่าสูงกว่าคู่แข่งมากถึง 4 เท่าเลยทีเดียว
  • Cisco Nexus 3232C ระบบ 100GbE Switch ที่มี Latency ต่ำ, มีขนาดเล็ก และมีประสิทธิภาพสูงสำหรับรองรับงานด้าน Data Center โดยเฉพาะ

NetApp ONTAP AI นี้สามารถวิเคราะห์ภาพได้ด้วยความเร็วถึง 23,000 Images/s (TIPS) และสามารถทำ Inference ได้ด้วยความเร็วระดับ 60,000 TIPS อีกทั้งยังสามารถเพิ่มขยายพื้นที่จัดเก็บข้อมูลได้สูงถึง 20 Petabytes พร้อมรองรับไฟล์ได้จำนวนมากถึง 400,000 ล้านไฟล์ภายใน Namespace เดียว รวมถึงยังสามารถใช้งาน NetApp Data Fabric เพื่อบริหารจัดการข้อมูลและปกป้องข้อมูลให้ปลอดภัยตรงตาม Compliance ที่ต้องการได้ในตัว

ผู้ที่สนใจรายละเอียดเพิ่มเติมสามารถศึกษาข้อมูลได้ที่ https://www.netapp.com/us/products/ontap-ai.aspx

 

ที่มา: https://blogs.nvidia.com/blog/2018/08/01/netapp-ontap-ai/

from:https://www.techtalkthai.com/netapp-and-nvidia-launches-netapp-ontap-ai-together/