خوراکی های کلیدی
- توان عملیاتی بی سابقه در یک گره:R7725xd بیش از 300 گیگابایت بر ثانیه از پهنای باند داخلی و 160 گیگابایت بر ثانیه از طریق NVMe-oF RDMA حفظ میکند و با خوشههای ذخیرهسازی چند گره در یک شاسی 2U رقابت میکند.
- معماری Gen5 واقعی، بدون سوئیچ، بدون فن خروجی:همه 24 هارد SSD Micron 9550 PRO خطوط اختصاصی x4 PCIe Gen5 را مستقیماً از مجموعه CPU دریافت میکنند که امکان مقیاسگذاری نرخ خط را بدون اختلاف فراهم میکند.
- پشتیبانی شده توسط AMD EPYC 9005 Series:پردازندههای دوگانه AMD EPYC 9575F تعداد خطوط، پهنای باند حافظه و توپولوژی NUMA لازم برای I/O با همزمانی بالا را فراهم میکنند.
- طراحی شده برای هوش مصنوعی، تجزیه و تحلیل، و بارهای کاری سنگین:این سیستم گلوگاه های ورودی/خروجی را که خطوط لوله GPU مدرن را متوقف می کند، از بین می برد و امکان تحویل مداوم و با پهنای باند بالا را فراهم می کند.
- PEAK:AIO موازی سازی کامل را باز می کند:PEAK: پشته نرم افزار AIO ساختارهای صف را تحت بار اشباع نگه می دارد و عملکرد سازمانی را با نسبت دلار به گیگابایت قانع کننده ارائه می دهد.
بخش ذخیره سازی iDRAC 10 یک نمای کلی از تمام دیسک های فیزیکی نصب شده در R7725xd را ارائه می دهد. پانل خلاصه تعداد سطح بالایی از تمام درایوهای متصل را به همراه یک نمودار دایره ای بصری نشان می دهد که وضعیت درایو را نشان می دهد. در این پیکربندی، 24 SSD NVMe فعال هستند و به صورت آماده گزارش می دهند، با دو دستگاه بوت اضافی در سیستم، جدا از بانک NVMe جلوی اولیه.
در سمت راست، پانل Summary of Disks این ها را به دیسک های فیزیکی و هر دیسک مجازی مرتبط تقسیم می کند. از آنجایی که R7725xd از معماری مستقیم NVMe بدون کنترلکنندههای RAID سنتی استفاده میکند، همه درایوها بهعنوان Non-RAID و به صورت جداگانه آدرسپذیر گزارش میشوند و با طراحی سیستم برای استخرهای بزرگ NVMe و پلتفرمهای SDS همسو هستند.
در زیر خلاصه وضعیت، منطقه Recently Logged Storage Events، گزارشهای درج برای هر SSD PCIe را فهرست میکند که بر اساس بای و اسلات سازماندهی شدهاند. این رکورد تشخیص مناسب را در تمام محفظههای درایو تأیید میکند و به شناسایی مشکلات مربوط به نشستن، کابلکشی یا فعالیت مبادله داغ کمک میکند. برای استقرارهای بزرگ، این گزارشها هنگام ردیابی تأمین درایو یا تأیید اینکه ظرفیت مطابق انتظار پر شده است مفید هستند.
تصویر نهایی نمای دستگاه NVMe را در iDRAC10 نشان می دهد. هر درایو NVMe نصب شده در سیستم به همراه وضعیت، ظرفیت و محل قرارگیری آن فهرست شده است. انتخاب یک درایو مجزا، یک تفکیک کامل از ویژگی های آن را باز می کند.
در این مثال، پانل اطلاعات درایو رشته مدل کامل، پروتکل دستگاه، فاکتور فرم و تنظیمات PCIe مذاکره شده را نمایش می دهد. دستگاههای NVMe با سرعت پیوند 32 GT/s با اتصال x4 مورد بحث کار میکنند، که تأیید میکند که درایوها با پهنای باند کامل در صفحه پشتی PCIe Gen5 سیستم کار میکنند. بخش اطلاعات همچنین درصد استقامت، وضعیت یدکی موجود و نوع پروتکل را گزارش میکند و به مدیران کمک میکند تا انتظارات سلامت و چرخه زندگی را بررسی کنند.
این گزارش درایو دانه ای در پیکربندی های NVMe با چگالی بالا که در آن عرض پیوند، سرعت مذاکره و سلامت رسانه به طور مستقیم بر رفتار بار کاری و عملکرد ذخیره سازی تأثیر می گذارد، ارزشمند است.
به طور کلی، رابط iDRAC 10 نمای روشن و سختافزار محوری از معماری ذخیرهسازی NVMe R7725xd را ارائه میکند که اعتبارسنجی آسان سلامت پیوند، وضعیت درایو و یکپارچگی سیستم را در یک نگاه امکانپذیر میسازد.
Dell PowerEdge R7725xd Performance
قبل از آزمایش، سیستم ما با بارگیری متعادل و در عین حال با کارایی بالا پیکربندی شده بود. این سیستم مجهز به دو پردازنده AMD EPYC 9575F است که هر کدام دارای 64 هسته فرکانس بالا و 24 DIMM 32 گیگابایتی DDR5 با سرعت 6400 MT/s هستند. برای ذخیره سازی، شاسی به طور کامل با 24 SSD 15.36 ترابایت Micron 9550 PRO U.2 NVMe پر شده است که هر کدام از طریق یک پیوند اختصاصی PCIe Gen5 x4 به هم متصل شده اند. این ظرفیت کلی 368.64 ترابایت را فراهم می کند و درایوهای Micron 9550 PRO سرعت خواندن متوالی تا 14000 مگابایت بر ثانیه و سرعت نوشتن متوالی تا 10000 مگابایت بر ثانیه را ارائه می دهند. شبکه توسط چهار آداپتور Broadcom BCM57608 انجام می شود که ترکیبی از هشت پورت 200 گیگابیتی را به همراه یک NIC BCM57412 OCP ارائه می دهد که دو پورت 10 گیگابیتی اضافی را ارائه می دهد.
تست مشخصات سیستم
- CPU:2 عدد پردازنده 64 هسته ای AMD EPYC 9575F با فرکانس بالا
- حافظه:24×32 گیگابایت DDR5 @ 6400MT/s
- ذخیره سازی:24 درایو 15.36 ترابایتی Micron 9550 PRO U.2 (هر کدام در خطوط 4 برابری PCIe Gen5 متصل می شوند). امروزه تا 128 ترابایت درایو با ظرفیت های بالاتر در افق پشتیبانی می کند
- شبکه:4x Broadcom BCM57608 2x200G NIC، 1x BCM57412 2x10Gb OCP NIC
- سوئیچ:Dell PowerSwitch Z9664
معیار عملکرد FIO
برای اندازه گیری عملکرد ذخیره سازی PowerEdge R7725xd، از معیارهای استاندارد صنعتی و ابزار FIO استفاده کردیم. در این بخش، ما بر روی معیارهای FIO زیر تمرکز می کنیم:
- تصادفی 4K - 1M
- متوالی 4K - 1M
FIO – محلی – پهنای باند
هنگام آزمایش دسترسی محلی به 24 درایو PCIe Gen5 NVMe در داخل Dell PowerEdge R7725xd، سیستم دقیقاً آنچه را که از پلتفرمی انتظار دارید را نشان میدهد که در آن هر درایو با استفاده از یک پیوند کامل x4 PCIe Gen5 به CPU متصل است. بدون درگیر بودن لایه شبکه، این توان عملیاتی خالص و داخلی چیدمان ذخیره سازی Gen5 Dell است و پهنای باند PCIe پلت فرم AMD EPYC بدون محدودیت کار می کند.
خواندن های متوالی با سرعت 184 گیگابایت بر ثانیه با بلوک های 4K شروع می شوند و با افزایش اندازه بلوک به سرعت مقیاس می شوند. از 512K تا 1M، سرور بین 312 تا 314 گیگابایت بر ثانیه ثابت نگه میدارد، که نشاندهنده خوبی است از اینکه سیستم تا چه حد میتواند تمام خطوط 24×4 Gen5 را در پهنای باند خواندن پایدار بدون هیچ گونه گلوگاه مرحله کنترل جمع کند.
نوشته های متوالی از منحنی متفاوتی پیروی می کنند اما در محدوده مورد انتظار ثابت می مانند. با شروع از 149 گیگابایت بر ثانیه، نتایج تا اواسط دهه 100 افزایش می یابد و در 1 میلیون به 182 گیگابایت در ثانیه می رسد. این با رفتار نوشتن SSD های Micron 9550 PRO و سربار ذاتی نوشتن NVMe موازی بالا در بسیاری از دستگاه های مستقل مطابقت دارد.
عملکرد خواندن تصادفی یکی دیگر از نکات برجسته است. این سیستم در کوچکترین اندازههای بلوک به سرعتی نزدیک به 300 گیگابایت بر ثانیه دست مییابد، در محدوده متوسط کمی کاهش مییابد، و سپس به 200 ثانیه بالا و 300 ثانیه در اندازههای بزرگتر بازیابی میشود. در 1M، خواندن تصادفی به حداکثر 318 گیگابایت در ثانیه می رسد، که نشان دهنده توانایی پلت فرم برای توزیع یکنواخت عملیات مختلط در تمام 24 درایو است.
نوشتارهای تصادفی با نرخ پایین تری وارد می شوند، که برای وظایف متادیتای پراکنده و تخصیص نوشتن در یک مجموعه گسترده NVMe معمول است. نتایج در اکثر تستها در محدوده 140 تا 160 گیگابایت بر ثانیه باقی میماند و در 1 M به کمتر از 100 گیگابایت بر ثانیه کاهش مییابد.
FIO – محلی – IOPS
هنگام بررسی سمت IOPS، R7725xd عملکرد قوی بلوک های کوچک را نشان می دهد، با نرخ درخواست به ده ها میلیون قبل از اینکه اندازه بلوک های بزرگتر حجم کار را به سمت نمایه ای مبتنی بر پهنای باند تغییر دهد.
در 4K، خواندن به 44.9 میلیون IOPS و نوشتن به 36.3 میلیون رسید. خواندن تصادفی حتی به سطوح بالاتری در 71.4 میلیون IOPS می رسد که نشان دهنده توانایی سیستم در توزیع کارآمد بارهای کاری در صف بالا در همه درایوها است. این مقادیر به طور طبیعی با افزایش اندازه بلوک ها کاهش می یابد، اما پیشرفت در محدوده های 8K، 16K و 32K ثابت می ماند.
در بلوک های 16K و 32K، تعداد قرائت ها به 17.4 میلیون و 8.35 میلیون IOPS می رسد، با قرائت های تصادفی نزدیک به 16.5 میلیون و 8.15 میلیون. نوشتهها از الگوی مورد انتظار پیروی میکنند و در الگوهای دسترسی متوالی و تصادفی پایینتر اما پایدار باقی میمانند.
همانطور که به سمت 64K و بالاتر حرکت می کنیم، آزمایش از IOPS خالص به یک سناریوی محدودتر با پهنای باند تغییر می کند. IOPS در محدوده پایین میلیونی و در نهایت به صدها هزار قرار می گیرد. در اندازه بلوک 1M، IOPS land را در حدود 300K بخوانید، در حدود 174K بنویسید و عملیات تصادفی در همان محله به پایان برسد.
به طور کلی، نتایج IOPS محلی به وضوح توانایی سیستم را برای حفظ بار کاری با عمق صف بسیار بالا در بلوکهای کوچک، با مقیاسبندی قابل پیشبینی همزمان با رشد انتقالها و تبدیل شدن پهنای باند به عامل غالب، نشان میدهد.
PEAK:AIO: چرا Dell PowerEdge R7725xd متناسب با این حجم کاری است
PEAK:AIO برای محیط هایی طراحی شده است که نیاز به دسترسی بسیار سریع و کم تاخیر به مجموعه داده های بزرگ دارند، معمولاً برای آموزش هوش مصنوعی، خطوط لوله استنتاج، مدل سازی مالی و تجزیه و تحلیل بلادرنگ. این پلتفرم در فضای ذخیره سازی متراکم NVMe، پهنای باند PCIe متعادل و تأخیر قابل پیش بینی در مقیاس رشد می کند. برای برآورده ساختن این الزامات، سختافزار زیربنایی باید با حفظ عملکرد ثابت و قابل تکرار تحت بارهای سنگین همزمان، توان عملیاتی پایدار را ارائه دهد.
این جایی است که Dell PowerEdge R7725xd به طور طبیعی با PEAK:AIO هماهنگ می شود. معماری سیستم برای به حداکثر رساندن منابع PCIe Gen5 طراحی شده است و پهنای باند کامل 24 دریچه U.2 NVMe نصب شده در جلو را مستقیماً در اختیار CPU ها قرار می دهد، بدون اینکه به کنترل کننده های RAID سنتی متکی باشد. این چیدمان به PEAK:AIO مشخصات موازی و تاخیری را می دهد که از خطوط لوله داده مبتنی بر NVMe مدرن انتظار دارد. پیکربندی سیستم SSD های NVMe را به دو گروه RAID0 تقسیم کرد.
در سناریوی آزمایش شده، ما از دو سیستم کلاینت متصل به R7725xd استفاده کردیم که هر کدام به کارت های شبکه Broadcom BCM57608 2x 200G مجهز بودند. این امر در مجموع چهار آپلینک 200G را ایجاد کرد که به هر مشتری تغذیه میشد و R7725xd را به یک پیکربندی با کارایی بالا واقعبینانه سوق داد که همان چیزی است که استقرارهای PEAK:AIO در تولید مشاهده میکنند. این سطح از پهنای باند شبکه به ما این فرصت را داد که به طور کامل بر زیرسیستم NVMe، توپولوژی PCIe و اتصالات CPU بدون ایجاد گلوگاه در لایه NIC فشار وارد کنیم.
نتیجه یک پلتفرم است که به طور موثر با بارهای کاری PEAK:AIO هماهنگ می شود. R7725xd ظرفیت NVMe متراکم، توان عملیاتی PCIe Gen5، پردازندههای دوگانه AMD EPYC 9005 برای موازیسازی، و قابلیت شبکهای برای حفظ دادههای چند مشتری با صدها گیگابیت در هر کلاینت را فراهم میکند. همه این ویژگی ها برای دستیابی به انتظارات عملکرد PEAK:AIO اساسی هستند.
PEAK:AIO – NVMe-oF RDMA – پهنای باند
با بررسی نتایج پهنای باند NVMe-oF RDMA در PowerEdge R7725xd با PEAK:AIO، روند کلی دقیقاً همان چیزی است که ما از سیستمی با این مقدار PCIe و پهنای باند شبکه انتظار داریم. همانطور که اندازه بلوک افزایش می یابد، توان عملیاتی به سرعت افزایش می یابد تا زمانی که نزدیک به حد عملی پلت فرم شود.
در اندازههای بلوک کوچک، عملکرد در محدوده متوسط 20 گیگابایت در ثانیه برای خواندن و نوشتن شروع میشود، که طبیعی است زیرا انتقالهای 4K و 8K مسیر IOPS را بسیار سختتر از مسیر خروجی فشار میدهند. وقتی وارد بلوک های 16K و 32K شدیم، خط لوله باز می شود. میزان خواندن به حدود 154 گیگابایت در ثانیه با سرعت 32K می رسد و تا محدوده 160 گیگابایت بر ثانیه ادامه می دهد، که دقیقاً همان جایی است که انتظار داریم راه اندازی دو کلاینت بیش از 4 پیوند با سرعت 200 گیگابیت بر ثانیه را داشته باشیم.
عملکرد خواندن تصادفی تقریباً به طور متوالی منعکس می شود. PEAK:AIO کار خوبی در نگه داشتن صف های فرمان انجام می دهد، بنابراین پهنای باند خواندن تصادفی اساساً پهنای باند خواندن متوالی را تا آخر ردیابی می کند و تقریباً بین 159 تا 161 گیگابایت بر ثانیه از 32K تا 1M است. این نشان میدهد که پشته ذخیرهسازی تحت الگوهای دسترسی مختلط تنگنا نمیکند و توپولوژی PCIe R7725xd بار را به طور مساوی در 24 درایو Gen5 NVMe توزیع میکند.
عملکرد نوشتن از منحنی مشابهی پیروی می کند، اگرچه کمی پایین تر از خواندن است. نوشتن متوالی در محدوده 140 تا 148 گیگابایت بر ثانیه در بلوکهای متوسط باقی میماند، تقریباً به 117 گیگابایت در ثانیه در 128K کاهش مییابد اما با افزایش اندازه بلوک بهبود مییابد. نوشتارهای تصادفی رفتار متفاوتی دارند و به 110-117 گیگابایت بر ثانیه نزدیکتر میشوند، که برای بارهای کاری ترکیبی که سربار اضافی ایجاد میکنند، طبیعی است.
نکته کلیدی از این بخش این است که R7725xd در حفظ پهنای باند بسیار بالای NVMe-oF، حتی با وجود چندین مشتری که سیستم را به محدودیتهای خود میرسانند، مشکلی ندارد. هنگامی که اندازه بلوک به 32K یا بالاتر برسد، سرور به طور مداوم شبکه و پهنای باند ذخیره سازی موجود خود را اشباع می کند. این دقیقاً همان نوع عملکردی است که PEAK:AIO برای استخراج طراحی شده است، و این نتایج را به اعتباری قوی از توانایی پلت فرم برای مقیاسپذیری در شرایط دنیای واقعی تبدیل میکند.
PEAK AIO – NVMe-oF RDMA IOPS
در سمت IOPS، PowerEdge R7725xd عملکرد قوی بلوک کوچک را نشان میدهد، اگرچه ما در ابتدا اعداد کمتر از حد انتظار را مشاهده کردیم. انتظار می رود این مشکل با پشتیبانی بهتر درایور شبکه در آینده برطرف شود. حتی با وجود آن در بازی، روند کلی مقیاس دقیقاً همانطور که NVMe-oF RDMA معمولاً هنگام افزایش اندازه بلوک رفتار می کند ظاهر می شود.
در کوچکترین اندازه بلوک، سیستم می تواند بیش از 6 میلیون IOPS را در هر دو بار کاری متوالی و تصادفی ارائه دهد. خواندن، نوشتن، خواندن تصادفی و نوشتن تصادفی تقریباً در یک محدوده 4K و 8K قرار میگیرند، که نشان میدهد کلاینتهای جلویی، زیرساختهای PCIe و خود درایوهای NVMe در هماهنگی با نرخ درخواست مشکلی ندارند.
با افزایش اندازه بلوک، کاهش مورد انتظار در IOPS آغاز می شود. در 32K، زمین حدود 4.7 میلیون IOPS را می خواند، در حالی که دنباله نوشتن کمی عقب تر در حدود 4.4 میلیون است. نوشتارهای تصادفی بیشترین ضربه را در اینجا میبینند، تقریباً به 3.3 میلیون IOPS کاهش مییابد که با صف اضافی و سربار CPU که توسط الگوهای دسترسی ترکیبی معرفی شدهاند، همسو میشود.
با حرکت به سمت بلوکهای بزرگ، IOPS به شکل خطی قابل پیشبینی به کاهش خود ادامه میدهد. با رسیدن به 256K و 512K انتقال، توان عملیاتی به معیار غالب تبدیل می شود و IOPS به طور طبیعی به صدها هزار نفر کاهش می یابد. در اندازه بلوک 1M، همه بارهای کاری به 140K-153K IOPS همگرا می شوند که مطابق با اعداد پهنای باندی است که در بخش قبل دیدیم.
عملکرد GPUDirect Storage
یکی از تستهایی که روی R7725xd انجام دادیم، تست Magnum IO GPUDirect Storage (GDS) بود. GDS ویژگی توسعه یافته توسط NVIDIA است که به GPU ها اجازه می دهد تا هنگام دسترسی به داده های ذخیره شده در درایوهای NVMe یا سایر دستگاه های ذخیره سازی پرسرعت، CPU را دور بزنند. به جای مسیریابی داده ها از طریق CPU و حافظه سیستم، GDS ارتباط مستقیم بین GPU و دستگاه ذخیره سازی را امکان پذیر می کند و تأخیر را به طور قابل توجهی کاهش می دهد و توان عملیاتی داده را بهبود می بخشد.
نحوه عملکرد حافظه GPUDirect
به طور سنتی، زمانی که یک GPU داده های ذخیره شده در درایو NVMe را پردازش می کند، داده ها باید ابتدا از طریق CPU و حافظه سیستم قبل از رسیدن به GPU عبور کنند. این فرآیند باعث ایجاد تنگناها می شود، زیرا CPU به یک واسطه تبدیل می شود و تأخیر را اضافه می کند و منابع ارزشمند سیستم را مصرف می کند. GPUDirect Storage با فعال کردن GPU برای دسترسی مستقیم به دادهها از دستگاه ذخیرهسازی از طریق گذرگاه PCIe، این ناکارآمدی را از بین میبرد. این مسیر مستقیم، سربار حرکت داده ها را کاهش می دهد و انتقال داده ها را سریعتر و کارآمدتر می کند.
بارهای کاری هوش مصنوعی، به ویژه آنهایی که شامل یادگیری عمیق هستند، به شدت به داده ها نیاز دارند. آموزش شبکه های عصبی بزرگ نیازمند پردازش ترابایت داده است و هرگونه تاخیر در انتقال داده می تواند منجر به استفاده ناکافی از GPU و زمان طولانی تر آموزش شود. GPUDirect Storage با اطمینان از تحویل دادهها به GPU در سریعترین زمان ممکن، به حداقل رساندن زمان بیکاری و به حداکثر رساندن کارایی محاسباتی، این چالش را برطرف میکند.
علاوه بر این، GDS به ویژه برای بارهای کاری که شامل پخش مجموعه داده های بزرگ مانند پردازش ویدیو، پردازش زبان طبیعی یا استنتاج بلادرنگ است، مفید است. با کاهش وابستگی به CPU، GDS حرکت داده ها را سرعت می بخشد و منابع CPU را برای کارهای دیگر آزاد می کند و عملکرد کلی سیستم را بیشتر می کند.
فراتر از پهنای باند خام، GPUDirect با NVMe-oF (TCP/RDMA) همچنین ورودی/خروجی با تأخیر بسیار کم را ارائه میکند. این تضمین میکند که پردازندههای گرافیکی هرگز برای دادهها گرسنه نباشند، و سیستم را برای استنتاج هوش مصنوعی، خطوط لوله تجزیه و تحلیل و پخش مجدد ویدیو ایدهآل میکند.
GDSIO Read Sequential
هنگام بررسی PEAK:AIO با یک کلاینت با استفاده از GDSIO، با افزایش اندازه بلوک و تعداد نخ ها، توان عملیاتی خواندن یک الگوی مقیاس بندی واضح را نشان می دهد. این کلاینت واحد از طریق دو پیوند 400G متصل شد و پتانسیل کل آن را به 90 گیگابایت بر ثانیه محدود کرد.
در کوچکترین اندازههای بلوک و تعداد رشتههای کم، عملکرد متوسط است، با خواندن 4K که حدود 189 مگابایت بر ثانیه در یک رشته واحد شروع میشود. به محض اینکه موازی نخ را افزایش دهیم، سیستم بلافاصله پاسخ میدهد، 691 مگابایت بر ثانیه را در چهار رشته فشار میدهد و با ورود به بلوکهای بزرگتر، به محدوده چند گیگابیت بر ثانیه میشکند.
اندازه بلوک های میان رده قوی ترین حساسیت را به تعداد نخ ها نشان می دهد. در 32K، توان عملیاتی از 1.3 گیگابیت بر ثانیه در یک رشته به نزدیک به 20 گیگابیت بر ثانیه با 64 رشته افزایش مییابد و تنها با کاهش جزئی فراتر از آن. یک الگوی مشابه در 64K و 128K ظاهر میشود، جایی که سیستم از GiB/s تک رقمی کم در موازیسازی کم به بیش از 30 گیگابایت بر ثانیه در مقیاس حجم کار تغییر میکند.
هنگامی که به اندازه بلوک های بزرگتر رسیدیم، با نزدیک شدن سیستم به سقف عملکرد خود برای یک مشتری، توان عملیاتی شروع به کاهش می کند. در 1 مگابایت، عملکرد از 11 گیگا بایت بر ثانیه در یک رشته به حدود 88 گیگابایت بر ثانیه در تعداد نخ های بالا افزایش می یابد. انتقالهای 5 و 10 مگابایتی، یک پلاتو را نشان میدهند، بدون توجه به اینکه تست در 64، 128 یا 256 رشتهها اجرا میشود، حدود 89 تا 90 گیگابایت بر ثانیه را نشان میدهند.
GDSIO ترتیبی بنویسید
در سمت نوشتن، رفتار مقیاسبندی از یک الگوی مشابه با خواندن پیروی میکند، اما با عملکرد کمی پایینتر در اکثر اندازههای بلوک، که برای بارهای کاری نوشتن متوالی انتظار میرود. در کوچکترین اندازه بلوک، توان عملیاتی از 165 مگابایت بر ثانیه برای یک رشته در 4K شروع می شود و با افزایش موازی سازی به طور پیوسته افزایش می یابد. در چهار رشته، این مقدار به بیش از 619 مگابایت بر ثانیه قبل از عبور از 1 گیگا بایت بر ثانیه در هشت رشته، رشد میکند.
اندازه بلوک های میان رده با افزایش تعداد نخ ها، سود قوی تری نشان می دهند. در 32K، توان عملیاتی با کمتر از 1 گیگابیت در ثانیه شروع می شود و در سطوح نخ بالاتر به بیش از 21 گیگابیت در ثانیه می رسد. محدوده های 64K و 128K این روند را ادامه می دهند و با موازی شدن حجم کار، از گیگابیت بر ثانیه تک رقمی کم به 30 گیگابایت بر ثانیه و 50 گیگابیت بر ثانیه می رسند.
نقل و انتقالات بزرگتر زمانی است که سیستم در سقف خروجی نوشتن طبیعی خود قرار می گیرد. در 1 مگابایت، عملکرد از 13.3 گیگا بایت بر ثانیه در یک رشته به کمتر از 90 گیگا بایت در ثانیه در تعداد رشته های بالا می رسد. تستهای 5 و 10 مگابایتی از الگوی مشابهی پیروی میکنند و نتایج آن بدون توجه به اینکه سیستم در 64، 128 یا 256 رشته کار میکند، در حدود 90 گیگابیت در ثانیه به حداکثر میرسد.
بازتعریف عملکرد در دوره Gen5
تماس با شخص: Ms. Sandy Yang
تلفن: 13426366826



