Skip to Content

آرشیو

نحوه راه اندازی Analyzer در EMC Unisphere

نحوه راه اندازی Analyzer در EMC Unisphere

ابتدا به کنسول Unisphere لاگین شده و سیستم استوریج مورد نظر را از تب سیستمها انتخاب می کنیم.

آدرس IP مربوط به SP دستگاه استوریج CLARiiON برای ورود به Unisphere مورد نیاز می باشد.

در حالتی که بیش از یک دستگاه در کنسول شما وجود دارد باید با توجه به شماره سریال دستگاه استوریج آنرا انتخاب نماییم.

 

باید Statistics Logging را در قسمت سیستم فعال نماییم.

در قسمت System Management بر روی گزینه Properties کلیک می نماییم و سپس تیک مربوط به Statistics Logging را می زنیم.

 

در تب بالای Monitoring گزینه Analyzer را کلیک می کنیم سپس بر روی لینک Performance Data Logging کلیک می کنیم.

 

تنظیمات مربوط به Data Logging در این صفحه مطابق شکل و با کلیک بر روی دکمه Start انجام می گردد. در این مرحله پیشنهاد می گردد تا دیتا حداقل در بازه هفت روزه جمع آوری گردد.

در این پنجره تایید خود را با زدن دکمه Yes به سیستم اعلام می کنیم.

زمانی که این مرحله به پایان رسید

پس از تکمیل این مرحله، صبر کنید تا زمان اختصاص داده شده به پایان برسد،و سپس مراحل زیر را برای جمع آوری داده های آماری انجام دهید.
 باید فایل NAR که شامل داده های آماری می باشد را در کنسول گرافیکی VNX Unisphere بازیابی نماییم. 

وارد کنسول Unisphere می شویم.

بر روی Array که می خواهیم دیتا را از آن جمع آوری کنیم کلیک می نماییم.

 

در تب System بر روی قسمت Monitoring and Alerts کلیک می کنیم.

بر روی آیکون Statistics for Block کلیک می نماییم.

در قسمت راست بر روی لینک Retrieve Archive کلیک می نماییم.

در پنجره Retrieve Archive ، آرایه خود را انتخاب و SPA را انتخاب نماید.(فایلهای NAR فقط به یکی از SP ها نیاز دارد.)

بر روی Save File As مسیر ذخیره سازی فایلها را مشخص می کنیم.

فایلهای NAR و NAZ را که مربوط به بازه زمانی که داده ها را جمع آوری کرده ایم برجسته می کنیم. حدود 10 الی 15 فایل وجود خواهد داشت که بر روی دکمه Retrieve کلیک می کنیم.

مراحل بازگردانی را با زدن گزینه های YES در پنجره Retrieve Archive تایید می کنیم.

در پشت قضیه فایل ها Verify می شوند و سپس بر روی دکمه Done کلیک می کنیم.

به دایرکتوری مربوط به فایلهای بازیابی شده رفته و فایلها را فشرده کرده و برای EMC و یا EMC Reseller ارسال می نماییم.

گروه فنی و مهندسی وی سنتر ارائه دهنده راهکارهای ذخیره سازی و بکاپ آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021

ادامه مطلب

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

راه اندازی VMware VASA بر روی استوریج EMC VNX5200

در ابتدا به اطلاع کلیه مهندسینی که قصد نصب و پیکربندی VMware VASA بر روی vSphere 5.5 برای استوریج VNX5200 و یا بقیه مدلهای VNX2 را دارند می رساند که این کار غیر ممکن می باشد و وقت خودشان را تلف نکنند.

این موضوع به دلیل وجود باگ در این ورژن می باشد که خود شرکت VMware نیز به آن اشاره نموده است البته این مشکل در ورژن vSphere 6.0 وجود ندارد و عزیزانی که از ورژن 6 استفاده می کنند بدون هیچ مشکلی می توانند نصب و پیکربندی نمایند. اما در صورتی که از نسخه vSphere 5.5 استفاده می کنید باید برای حل این مشکل یک سیستم عاملی مانند ویندوز یا لینوکس به عنوان EMC SMI-S Agent نصب کرده و آن را به دستگاه VNX وصل کنیم و بعد از آن می توانیم آن را بر روی vCenter ثبت کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

مراحل کار بسیار ساده می باشد، ابتدا باید آخرین نسخه SMI-S Provider که شامل ورژن های 4.6 و 7.6.2.65 می باشند را از وبسایت support.emc.com دانلود می کنیم و سپس در طول مراحل نصب بر روی Array Provider کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200
بر روی SYMAPI نیز کلیک می کنیم.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور TestSmiProvider.exe برای ارتباط با SMI-S Agent استفاده می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

دستگاه استوریج VNX را در SMI-S ثبت می کنیم:

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

از دستور dv برای چک کردن شناسایی دستگاه استفاده می کنیم. شایان ذکر است که می توان بیش از یک دستگاه را در اینجا Register نمود.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

در مرحله پایانی ما یک SMI-S Agent در vCenter به عنوان Storage Provider اضافه می کنیم. همانطور که در تصویر می بینید فقط یک Array در vCenter اضافه شده است. همچنین شما می توانید از یک Agent برای چندین vCenter استفاده کنید.

راه-اندازی-VMware-VASA-بر-روی-استوریج-EMC-VNX5200

شما می توانید از پرفایل استوریج خود را مشاهده و استفاده نمایید.

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارهای ذخیره سازی و بکاپ EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268 – 021

ایمیل: info@vcenter.ir

ادامه مطلب

استوریج EMC VNX5400 Unified

استوریج EMC VNX5400 Unified

استوریج EMC VNX5400 Unified

استوریج EMC VNX5400 Unified

استوریج EMC VNX5400 یک پلتفرم بسیار مناسب برای یکپارچه سازی استوریج های بلاک و فایل و DAS می باشد.

این امکان به صاحبان مشاغل این اجازه را می دهد تا بصورت دینامیک فایل سیستم های چند پروتکله و سیستم های بلاک چند پروتکله را مدیریت و به اشتراک بگذارند و همچنین بتوانند با خیال آسوده رشد اطلاعات خود را ساماندهی نمایند. استوریج EMC VNX5400 Unified به عنوان یکی از راهکارهای مطمئن و مقرون به صرفه با استفاده از VNX OE به کاربران مایکروسافت و لینوکس اجازه به اشتراک گذاری فایلها در محیطی با پروتکل های NFS و CIFS را می دهد. این استوریج همچنین از FC و iSCSI و نیز FCOE پشتیبانی می کند تا مشکلی در برنامه های کاربردی بلاک از لحاظ سرعت و پهنای باند بوجود نیاید.

با ترکیب استوریج VNX و نرم افزار EMC Atmos این دستگاه امکانات Object-Based را پشتیبانی خواهد نمود و از اینرو کاربر قادر خواهد بود تا Application های وب خود را از طریق EMC Unishere مدیریت نماید.

نرم افزار EMC ViPR همچنین از این مدیریت متمرکز پشتیبانی می کند و حتی می تواند به فریمورک های ابری EMC نیز وصل شود.

استوریج EMC VNX5400 یکی از بهترین گزینه ها برای محیطهای Mid-Tier که از نرم افزارهای مجازی سازی شده بر پایه نرم افزارهای VMware ، Hyper-V و Xen استفاده می کنند می باشد. این استوریج همچنین کلیه پروتکل های مورد استفاده در محیطهای مجازی را پشتیبانی کرده و برای راه اندازی هر مرحله از ساختار مجازی راهکار بخصوص آن را دارد.

استوریج EMC VNX5400 اولین پلتفرم استوریجی است که می تواند محیط مجازی بر پایه مایکروسافت Hyper-V 3.0 2012 را نیز پشتیبانی نماید.

 

مشاهده مشخصات فنی استوریج EMC VNX5400 

Specifications
Max. Raw Capacity 750 TB
Max. Cache 1.0 TB (FAST Cache)
Min. Cache N/A
Max. HDD Count 250
Min. HDD Count 4
HDD Support 100GB SSD
200GB SSD
300GB 6Gb SAS 15K
400GB SSD
600GB 6Gb SAS 10K
600GB 6Gb SAS 15K
900GB 6Gb SAS 10K
2TB 6Gb SAS 7K
3TB 6Gb SAS 7K
RAID Support RAID 0
RAID 1+0
RAID 3
RAID 5
RAID 6
Host Connections 2Gb FC
4Gb FC
8Gb FC
6Gb SAS
1Gb iSCSI
10Gb iSCSI
10Gb FCoE
Fibre Bandwidth to Host N/A
Fibre Bandwidth to Disk N/A
Dual Controllers Yes
Expansion Slots N/A
Max. FC Port Count 32
Max. GigE Port Count 16
Network Protocol Support ARP
CIFS
FC
LDAP
NDMP
NFS v2
NFS v3
NFS v4
NLM
NTP
RIP
SMTP
SNMP
WebDAV
OS Support
NAS/iSCSI Support N/A
Model Upgrade Options N/A
Bandwidth to Host N/A
IOPS Cache Burst Rate N/A
SPC-1 IOPS Benchmark N/A
MB/s Transfer Rate N/A
Component Replacement Yes
Hot-Pluggable Disks Yes
Microcode Updates Yes

 

 

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه راهکارها و محصولات ذخیره سازی EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268

ایمیل: Sales@vcenter.ir

 

 

 

ادامه مطلب

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack

نرم افزار EMC Total Efficiency Pack مجموعه ای از نرم افزارهای مدیریت استوریج و دیتا می باشد که به بالا بردن سرعت و Performance برنامه های کاربردی و محافظت از داده های بسیار حساس و پایین آوردن هزینه های استوریج کمک می کند.

نرم افزار پیشرفته EMC Total Efficiency Pack با استفاده از ساده سازی و اتوماتیک کردن بسیاری از Task های استوریج به صورت فزاینده ای بهره وری و کارایی سیستم را بالا می برد.

VNX Total Efficency Pack شامل کل نرم افزار Data Protection نیز می باشد.

 

  • بالا بردن بهره وری: تنظیم SLA ها برای Performance های مورد نیاز برای برنامه های کاربردی سبک و سنگین
  • محافظت: محافظت از داده ها در مقابل خطاهای احتمالی ، قطعی ها و حوادث
  • ساده سازی: مدیریت نرم افزار VNX با استفاده از EMC Unisphere

 

پک نرم افزار VNX Total Efficency Pack شامل پنج نرم افزار زیر می باشد:

 

 

ادامه مطلب

فروش استوریج EMC

فروش استوریج EMC

گروه فنی و مهندسی وی سنتر آمادگی خود را جهت تامین انواع استوریج ها و تجهیزات EMC اعلام می کند.

برای قیمت گیری می توانید لیست خرید خود را به ایمیل Sales@vcenter.ir ارسال فرمایید.

شماره تماس: 88884268

ادامه مطلب

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView

معرفی EMC VNX MirrorView: نرم افزار EMC VNX MirrorView ارائه دهنده راهکاری برای Replication در لایه بلاک در محصولات EMC VNX محسوب می شود.

این نرم افزار دارای دو Mode برای Remote Mirroring می باشد:

  • MirroView/S Synchronous
  • MirrorView/A Asynchronous

نرم افزار MirrorView به تکنولوژی گفته می شود که در آن اصل دیتای بلاک استوریج که در حالت اکتیو و استفاده می باشند در استوریج سایت ریموت ذخیره می شوند. این سایت ریموت که به آن سایت پشتیبان نیز گفته می شود در حال حاضر یکی از راهکارهای مناسب برای Disaster Recovery محسوب می شود. راهکار MirrorView بر پایه LUN کار می کند به این مفهوم که در عمل Replication یک LUN از سایت اصلی بر روی یک LUN در سایت دوردست یا همان سایت Disaster Recovery ذخیره می شود.

 

MirrorView/S

در حالت MirrorView/S که synchronous replication نیز نامیده می شود در فاصله های نزدیک قابلیت Replication همزمان را ارائه می نماید. ار آنجا که در راهکار Synchronous Replication همه چیز همزمان انحام می پذیرد اندازه RPO Recovery Point Objective صفر می باشد.

گردش دیتا در MirrorView/S به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX داده ها را در استوریج ثانویه Replicate می نماید.

3- استوریج ثانویه VNX خبر اتمام عملیات Write را به استوریج اصلی VNX می دهد.

4- استوریج ثانویه VNX خبر اتمام عملیات Write را به هاست می دهد.

خیلی مهم است که ما از نحوه گردش دیتا در MirrorView/S آگاه شویم. به عنوان شما باید بدانید زمان رفت و برگشت RTT Round Trip Time بین دو استوریج VNX نباید بیشتر از 10 میلی ثانیه باشد. اگر زمان RTT بالاتر از این مقدار باشد مدت زمان پاسخگویی هاست نیز بالاتر خواهد رفت بدلیل اینکه مدت زمان بیشتری برای ارسال Acknowledge برای درخواست Write طول خواهد کشید.

 

MirrorView/A

در حالت MirrorView/A قابلیت Replication برای فاصله های بلند را فراهم می سازد. این حالت می تواند برای انجام Replication بین دو دستگاه استوریج VNX مورد استفاده قرار گیرد. در این حالت مدت زمان RTT بسیار بالا می باشد ولی باید به این نکته توجه داشت که این زمان نباید بیشتر از 200 میلی ثانیه باشد. در حالت MirrorView Asynchronous  این نرم افزار ، مدلی برای آپدیت زمان دار تغییرات Track ها در سایت اصلی وجود دارد که با استفاده از این مدل تغییرات در سایت ثانویه با استفاده از فاصله زمانی RPO مورد نظر کاربر انجام می پذیرد.

با استفاده از MirrorView/A Replication اعلام اتمام عملیات نوشتن در زمان دریافت توسط استوریج اصلی به هاست ارسال می شود که اساسا هیچ تاثیر منفی در محیط عملیاتی ندارد در حالی که با استفاده از MirrorView/S همه عملیات نوشتن باید توسط دو استوریج Acknowledge شوند.

گردش دیتا در MirrorView/A به شرح ذیل می باشد:

1- هاست به استوریج اصلی VNX وصل شده و یک عمل Write را آغاز می کند.

2- استوریج اصلی VNX ارسال کرده و هاست را Acknowledge می کند.

3- استوریج اصلی VNX تغییرات را دنبال کرده و بر روی استوریج ثانویه با دستورالعمل RPO مشخص شده توسط کاربر Replicate می نماید.

4- استوریج ثانویه داده ها را دریافت و Ack را به استوریج اصلی ارسال می کند.

 

نکته مهم: در هر دو حالت MirrorView/A و MirrorView/S گروه های Consistent پشتیبانی می شوند. گروه های Consistent زمانی مورد استفاده قرار می گیرند که ما بخواهیم اطلاعات را با یک ترتیب مشخص بر روی چند LUN مشخص بنویسیم. به عنوان مثال شما اگر در ساختار VMWare خود یک Datastore متشکل از 6 عدد LUN داشته باشید نیاز خواهید داشت برای هر کدام از آنها در وضعیت Consistent بوده و در ارتباط با یکدیگر باشند تا کارکرد بهتری داشته باشند.

 

 

 

ادامه مطلب

SAN استوریج EMC

SAN استوریج EMC

استوریج های Block شرکت EMC به استوریج هایی که در شبکه SAN مورد استفاده قرار می گیرد اطلاق می شود.

ادامه مطلب

استوریج های سری VNX شرکت EMC

EMC VNX

Home, Optimizer, Benchmarks, Server Systems, Systems Architecture, Processors, Storage,
Storage Overview, System View of Storage, SQL Server View of Storage, File Layout,

PCI-ESASFCHDDSSD Technology RAID ControllersDirect-Attach,
SAN, Dell MD3200, EMC CLARiiON AX4, CLARiiON CX4, VNX, V-Max,
HP P2000, EVA, P9000/VSP, Hitachi AMS
SSD products: SATA SSDs, PCI-E SSDs , Fusion iO , other SSD

Updated 2013-10

Update 2013-10
A link to Storage Review EMC Next Generation VNX Series Released … by Brian Beeler. While the preliminary slidedecks mention VNX2, the second generation VNX is jsut VNX. No 2 at the end.

In the table below, the second generation VNX specifications (per SP except as noted). The VNX5200 will come out next year?

VNX5200 VNX5400 VNX5600 VNX5800 VNX7600 VNX8000
Max FE ports 12? 16? 20 20 20 40
Max UltraFlex I/O 2 4 5 5 5 11
embedded I/O 2 SAS? 2 SAS 2 SAS 2 SAS 2 SAS none
Max SAS 2 6 6 6 16
Max FAST Cache 600GB 1TB 2TB 3TB 4.2TB 4.2TB
Max drive 125 250 500 750 1000 1500*
Xeon E5 1.2GHz 4c 1.8GHz 4c 2.4GHz 4c 2.0GHz 6c 2.2GHz 8c 2×2.7G 8c
Memory 16GB 16GB 24GB 32GB 64GB 128GB
Cores 4 4 4 6 8 16

 

Below is the back-end of the VNX5400 DPE. The DPE has 2 SPs. Each SP has 5 slots? One the top are the power supply, battery backup unit (BBU) and SAS module with 2-ports. One the bottom, the first module is for management.

EMC VNX

Close-up

EMC VNX

Below is the EMC VNX 8000 SPE back-end

EMC VNX

I/O module options for the VNX are: quad-port 8Gb/s FC, quad-port 1Gb/s Ethernet, dual-port 10GbE. The VNX 5600 and up can also support a quad-port 6Gb/s SAS module.

 

Updated 2013-02

While going through the Flash Management Summit 2012 slide decks, I came across the session Flash Implications in Enterprise Storage Designs by Denis Vilfort of EMC, that provided information on performance of the CLARiiON, VNX, a VNX2 and VNX Future.

A common problem with SAN vendors is that it is almost impossible to find meaningful performance information on their storage systems. The typical practice is to cited some meaningless numbers like IOPS to cache or the combined IO bandwidth of the FC ports, conveying the impression of massive IO bandwidth, while actually guaranteeing nothing.

VNX (Original)

The original VNX was introduced in early 2011? The use of the new Intel Xeon 5600 (Westmere-EP) processors was progressive. The decision to employ only a single socket was not.

EMC VNX

Basic IO functionality does not require huge CPU resources. But the second socket would double memory bandwidth, which is necessary for driving IO. Data read from storage must first be written to memory before being sent to host? The second processor would also better support a second IOH. Finally, the additional CPU resources would support the value-add features that SAN vendors so desparately try to promote.

EMC did provide the table below on their VNX mid-range systems in the document “VNX: Storage Technology High Bandwidth Application” (h8929) showing the maximum number of front-end FC and back-end SAS channels along with the IO bandwidths for several categories. This is actually unusual for a SAN storage vendor, so good for EMC. Unfortunately, there is no detailed explanation of the IO patterns for each category.

EMC VNX

Now obviously the maximum IO bandwidth can be reached in the maximum configuration, that is with all IO channels and all drive bays populated. There is also no question that maximum IO bandwidth requires all back-end IO ports populated and a sufficient number of front-end ports populated. (The VNX systems may support more front-end ports than necessary for configuration flexibility?)

However, it should not be necessary to employ the full set of hard disks to reach maximum IO bandwidth. This is because SAN systems are designed for capacity and IOPS. There are Microsoft Fast Track Data Warehouse version 3.0 and 4.0 documents for the EMC VNX 5300 or 5500 system. Unfortunately Microsoft has backed away from the bare table scan test of disk rate in favor of a composite metric. But it does seem to indicate that 30-50MB/s per disk is possible in the VNX.

What is needed is a document specifying the configuration strategy for high bandwidth specific to SQL Server. This includes the number and type of front-end ports, the number of back-end SAS buses, the number of disk array enclosures (DAE) on each SAS bus, the number of disks in each RAID group and other details for each significant VNX model. It is also necessary to configure the SQL Server database file layout to match the storage system structure, but that should be our responsibility as DBA.

It is of interest to note that the VNX FTDW reference architectures do not employ Fast Cache (flash caching) and (auto) tiered-storage. Both of these are an outright waste of money on DW systems and actually impedes performance. It can make good sense to employ a mix of 10K/15K HDD and SSD in the DW storage system, but we should use the SQL Server storage engine features (filegroups and partitioning) to place data accordingly.

A properly configured OLTP system should also employ separate HDD and SSD volumes, again using of filegroups and partitioning to place data correctly. The reason is that the database engine itself is a giant data cache, with perhaps as much as 1000GB of memory. What do we really expect to be in the 16-48GB SAN cache that is not in the 1TB database buffer cache? The IO from the database server is likely to be very misleading in terms of what data is important and whether it should be on SSD or HDD.

CLARiiON, VNX, VNX2, VNX Future Performance

Below are performance characteristics of EMC mid-range for CLARiiON, VNX, VNX2 and VNX Future. This is why I found the following diagrams highly interesting and noteworthy. Here, the CLARiiON bandwidth is cited as 3GB/s and the current VNX as 12GB/s (versus 10GB/s in the table above).

EMC VNX

I am puzzled that the VNX is only rated at 200K IOPS. That would correspond to 200 IOPS per disk and 1000 15K HDDs at low queue depth. I would expect there to be some capability to support short-stroke and high-queue depth to achieve greater than 200 IOPS per 15K disk.

The CLARiiON CX4-960 supported 960 HDD. Yet the IOPS cited corresponds to the queue depth 1 performance of 200 IOPS x 200 HDD = 40K. Was there some internal issue in the CLARiiON. I do recall a CX3-40 generating 30K IOPS over 180 x 15K HDD.

A modern SAS controller can support 80K IOPS, so the VNX 7500 with 8 back-end SAS buses should handle more than 200K IOPS (HDD or SSD), perhaps as high as 640K? So is there some limitation in the VNX storage processor (SP), perhaps the inter-SP communication? or a limitation of write-cache which requires write to memory in both SP?

VNX2?

Below (I suppose) is the architecture of the new VNX2. (Perhaps VNX2 will come out in May with EMC World?) In addition to transitioning from Intel Xeon 5600 (Westmere) to E5-2600 series (Sandy Bridge EP), the diagram indicates that the new VNX2 will be dual-processor (socket) instead of single socket on the entire line of the original VNX. Considering that the 5500 and up are not entry systems, this was disappointing.

EMC VNX

VNX2 provides 5X increase in IOPS to 1M and 2.3X in IO bandwidth to 28GB/s. LSI mentions a FastPath option that dramatically increases IOPS capability of their RAID controllers from 80K to 140-150K IOPS. My understanding is that this is done by completely disabling the cache on the RAID controller. The resources to implement caching for large array of HDDs can actually impede IOPS performance, hence caching is even more degrading on an array of SSDs.

The bandwidth objective is also interesting. The 12GB/s IO bandwidth of the original VNX would require 15-16 FC ports at 8Gbps (700-800MBps per port) on the front-end. The VNX 7500 has a maximum of 32 FC ports, implying 8 quad-port FC HBAs, 4 per SP.

The 8 back-end SAS busses implies 4 dual-port SAS HBAs per SP? as each SAS bus requires 1 SAS port to each SP? This implies 8 HBAs per SP? The Intel Xeon 5600 processor connects over QPI to a 5220 IOH with 32 PCI-E gen 2 lanes, supporting 4 x8 and 1×4 slots, plus a 1×4 Gen1 for other functions.

In addition, a link is needed for inter-SP communication. If one x8 PCI-E gen2 slot is used for this, then write bandwidth would be limited to 3.2GB/s (per SP?). A single socket should only be able to drive 1 IOH even though it is possible to connect 2. Perhaps the VNX 7500 is dual-socket?

An increase to 28GB/s could require 40 x8Gbps FC ports (if 700MB/s is the practical limit of 1 port). A 2-socket Xeon E5-2600 should be able to handle this easily, with 4 memory channels and 5 x8 PCI-E gen3 slots per socket.

VNX Future?

The future VNX is cited as 5M IOPS and 112GB/s. I assume this might involve the new NVM-express driver architecture supporting distributed queues and high parallelism. Perhaps the reason both VNX2 and VNX Future are described is that the basic platform is ready but not all the components to support the full bandwidth?

EMC VNX

The 5M IOPS should be no problem with an array of SSDs, and the new NVM express architecture of course. But the 112GB/s bandwidth is curious. The number of FC ports, even at a future 16Gbit/s is too large to be practical. When the expensive storage systems will finally be able to do serious IO bandwidth, it will also be time to ditch FC and FCOE. Perhaps the VNX Future will support infini-band? The puprose of having extreme IO bandwidth capability is to be able to deliver all of it to the database server on demand. If not, then the database server should have its own storage system.

The bandwidth is also too high for even a dual-socket E5-2600. Each Xeon E5-2600 has 40 PCI-E gen3 lanes, enough for 5 x8 slots. The nominal bandwidth per PCIe G3 lane is 1GB/s, but the realizable bandwidth might be only 800MB/s per lane, or 6.4GB/s. A socket system in theory could drive 64GB/s. The storage system is comprised of 2 SP, each SP being a 2-socket E5-2600 system.

To support 112GB/s each SP must be able to simultaneously move 56GB/s on storage and 56GB/s on the host-side ports for a total of 112GB/s per SP. In addition, suppose the 112GB/s bandwidth for read, and that the write bandwidth is 56GB/s. Then it is also necessary to support 56GB/s over the inter-SP link to guarantee write-cache coherency (unless it has been decided that write caching flash on the SP is stupid).

Is it possible the VNX Future has more than 2 SP’s? Perhaps each SP is a 2-socket E5-4600 system, but the 2 SPs are linked via QPI? Basically this would be a 4-socket system, but running as 2 separate nodes, each node having its own OS image. Or that it is a 4-socket system? Later this year, Intel should be releasing an Ivy Bridge-EX, which might have more bandwidth? Personally I am inclined to prefer a multi-SP system over a 4-socket SP.

Never mind, I think Haswell-EP will have 64 PCIe gen4 lanes at 16GT/s. The is 2GB/s per lane raw, and 1.6GB/s per lane net, 12.8GB/s per x8 slot and 100GB/s per socket. I still think it would be a good trick if one SP could communicate with the other over QPI, instead of PCIe. Write caching SSD at the SP level is probably stupid if the flash controller is already doing this? Perhaps the SP memory should be used for SSD metadata? In any case, there should be coordination between what each component does.

Summary

It is good to know that EMC is finally getting serious about IO bandwidth. I was of the opinion that the reason Oracle got into the storage business was that they were tired of hearing complaints from customers resulting from bad IO performance on the multi-million dollar SAN.

My concern is that the SAN vendor field engineers have been so thoroughly indoctrinated in the SaaS concept that only capacity matters while having zero knowledge of bandwidth, that they are not be able to properly implement the IO bandwidth capability of the existing VNX, not to mention the even higher bandwidth in VNX2 and Future.

unsorted misc

EMC VNX

EMC VNX

EMC VNX

EMC VNX

EMC VNX

EMC VNX Early 2011?

VNX came out in early 2011 or late 2010? All VNX models use the Xeon 5600 processors, ranging from 2.13 to 2.8GHz, and four to six cores (actually from 1.6GHz and 2 cores?). The 5100, 5300 and 5500 are comprised of two Disk-processor enclosures (DPE) that house both the storage processors and the first tray of disks. The 5700 and 7500 models are comprised of Storage-processor enclosures (SPE) that house only the storage processors. Two DPE or SPE comprise an Array.

VNX 5100 VNX 5300 VNX 5500 VNX 5700 VNX 7500
Max Drives 75 125 250 500 1000
Enclosure 3U Disk + SP 3U Disk + SP 3U Disk + SP 2U SP 2U SP
DAE Options 25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
Memory per Array 8GB 16GB 24GB 36GB 48GB
Max UltraFlex IO
Modules per Array
0 4 4 10 10
Embedded IO Ports
per Array
8 FC & 4 SAS 8 FC & 4 SAS 8 FC & 4 SAS
Max FC Ports
per Array
8 16 16 24 32
SAS Buses
(to DAEs)
2 2 2 or 6 4 4 or 8
Freq 1.6GHz 1.6GHz 2.13GHz 2.4GHz 2.8GHz
cores 2 4 4 4 6
Mem/DPE 4GB 8GB 12GB 18GB 24GB

The VNX front-end is FC with options for iSCSI. The back-end is all SAS (in the previous generation, this was FC). The 5100-5500 models have 4 FC ports and 1 SAS bus (2 ports) embedded per DPE, for 8 FC and 2 SAS busses per array. The 5100 does not have IO expansion capability. The 5300 and 5500 have 2 IO expansion ports per DPE, for 4 total in the array. The 5300 only allows front-end IO expansion, while the 5500 allows expansion on both front-end and back-end IO.

The 5300 and higher VNX models can also act as file servers with X-blades in the IO expansion slots. This capability is not relevent to high-performance database IO and is not considered here.

Disk-array enclosure (DAE) options are now 25 x 2.5″ in 2U, 15 x 3.5″ in 3U or a 60 x 3.5″ in 4U. The hard disk long dimemsion is vertical, the 1″ disk height is aligned along the width of the DAE for 12 across, and this is 5 deep.

An UltraFlex IO Module attaches to a PCI-E slot? (x8?). Module options are quad-port FC (upto 8Gbps), dual-port 10GbE, or quad-port 1GbE, or 2 SAS busses (4-ports). So a module could be 1 SAS bus (2 ports), 4 FC ports etc?

Each SAS port is 4 lanes at 6Gbp/s and 2 ports make 1 “bus” with redundant paths.

The first 4 physical disks reserves 192GB per disk.

There is an EMC document h8929-vnx-high-bandwidth-apps-ep with useful information. more later. The diagram below is from the EMC VNC document. The VNX storage engine core is a Westmere processor (1 or 2?) with 3 memory channels, and IO adapters on PCI-E gen 2. The backend is SAS, and the front-end to host can be FC, FCoE or iSCSI.

Below is the VNX System architecture from an EMC slidedeck titled “Introducing VNX Series”. Note EMC copyright, so I suppose I should get permission to use? In block mode, only the VNX SP is required. In file mode, up to four X-Blades can be configured?

Below from: Introducing VNX Series, Customer Technical Update

EMC VNX

Below from h8929

EMC VNX

As far as I can tell, the VNX models have a single Xeon 5600 processor (socket). While it may not take much CPU-compute capability to support a SAN storage system, there is a significant difference in the IO capability with 2 processor sockets populated (6 memory channels instead of 3), noting that IO must be writen to memory from the inbound side, then read from memory to the outbound side.

VNX 5100 VNX 5300 VNX 5500 VNX 5500* VNX 5700 VNX 7500
Backend SAS Buses 2 2 2 6* 4 4 or 8 Max Frontend FC 8 16 16 16 24 32 DSS Bandwidth (MB/s) 2300 3600 4200 4200 6400 7300 DW Bandwidth (MB/s) 2000 3200 4200 6400 6400 10000 Backup BW – Cache bypass mode 700 900 1700 1900 3300 7500 Rich Media BW 3000 4100 5700 5700 6200 9400

Note: * VNX 5500 Hi-BW option consumes all the flex-IO modules, and bandwidth is limited by FC front-end?

EMC VNX

The SAS IO expansion module adds 4 SAS ports for a total of 6 ports, since 2 are integrated. However, only a total of 4 ports (2 busses) are used per DPE.

Full Data Warehouse bandwidth requires at least 130 x 15K SAS drives.

h8177

h8177 says:
VNX5100 can support 1,500MB/s per DPE or 3,000MB/s for the complete 5100 unit.
VNX5300 can support 3,700MB/s for the complete unit.
VNX5500 can support 4,200MB/s for the complete unit on integrated back-end SAS ports, and 6,000MB/s with additional back-end SAS ports.

Flare 31.5 talks about the VNX5500 supporting additional front-end and back-end ports in the 2 expansion slots. To achieve the full 6,000MB/s, the integrated 8Gbps FC ports must be used in combination with additional Front-end ports in one of the expansion slots

h8297

The Cisco/EMC version of the SQL Server Fast Track Data Warehouse employs one VNX 5300 with 75 disks and two 5300’s with a total of 150 disks, each VNX with 4 x 10Gb FCoE connections. The throughput is 1985 for the single 5300 and 3419MB/s for two. This is well below the list bandwidth of 3GB/s+ for the VNX5300, which may have required 130 disks?

Of the 75 disks on each 5300, only 60 are allocated to data. So the 1985MB/s bandwidth corresponds to 33MB/s per disk, well below the Microsoft FTDW reference of 100MB/s per disk. The most modern 15K 2.5in hard drives are rated for 202MB/s on the outer tracks (Seagate Savvio 15K.3). The Seagate Savvio 10K.5 is rated for 168MB/s on the outer tracks. With consideration for the fact that perfect sequential placement is difficult to achieve, the Microsoft FTDW target of 100MB/s per disk or even a lower target of 50MB/s per disk is reasonable, but 33MB/s per disk is rather low.

EMC VNX

Data warehouse IO is 512KB random read.
DSS is 64KB sequential read.
Backup is 512KB sequential write.
Rich media is 256KB sequential read.

Deploying EMC VNX Unified Storage Systems for Data Warehouse Applications (Dec 2011)
h8177-deploying-vnx-data-warehouse-wp,
Introduction to the EMC VNX Series, A Detailed Review (Sep 2011)
h8217-introduction-vnx-wp,
h8046-clariion-celerra-unified-fast-cache-wp

Other EMC documents h8297 Cisco Reference Configurations for Microsoft SQL Server 2008 R2 Fast Track Data Warehouse 3.0 with EMC VNX5300 Series Storage Systems
h8929 VNX: Storage Technology High Bandwidth Applications

ادامه مطلب

مقایسه استوریج 3PAR با دیگر استوریج ها

HP 3PAR StoreServ 7000 BattleCard

‘Locked out’ of a storage opportunity by vendor policy, unable to quote a solution that’s already been quoted and progressed by a competitor? The answer is simple. ‘Just HP it’! with Avnet and HP 3PAR StoreServ 7000. Use this document to re-open the door to the opportunity, and position HP favorably against the competition.

Where HP 3PAR StoreServ 7000 wins against the whole market:

مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM

Key Features

مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM-netapp

/مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM-vnx1

/مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM-v7000

/مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM-HDS-HUS

/مقایسه-استوریج-HP-3PAR-با-استوریج-های-EMC-و-Netapp-و-IBM-Storage

Unlock every storage opportunity with Avnet and HP 3PAR StoreServ 7000

Remember, if you find yourself locked out of a storage opportunity by vendor policy, unable to quote a solution that’s already been quoted and progressed by a competitor ‘Just HP it’. Your HP team at Avnet has created a dedicated programme and resource to support such a scenario through:
n A dedicated hot desk – get a quick response and quicker turnaround times to support you to compete
n A dedicated e-mail address – email a dedicated address, accelerating response quote turnarounds
n Pre-approved pricing of comparison 3PAR configs – faster pricing turnaround, no issues getting OPG
n Avnet’s HP Demo Facility – Partners can bring their customers to ‘The Resource’ demonstration facility in Bracknell, so together we can prove concepts, demonstrate products and solutions, train and close business.

ادامه مطلب