Skip to Content


استوریج های سری VNX شرکت EMC


Home, Optimizer, Benchmarks, Server Systems, Systems Architecture, Processors, Storage,
Storage Overview, System View of Storage, SQL Server View of Storage, File Layout,

PCI-ESASFCHDDSSD Technology RAID ControllersDirect-Attach,
SAN, Dell MD3200, EMC CLARiiON AX4, CLARiiON CX4, VNX, V-Max,
HP P2000, EVA, P9000/VSP, Hitachi AMS
SSD products: SATA SSDs, PCI-E SSDs , Fusion iO , other SSD

Updated 2013-10

Update 2013-10
A link to Storage Review EMC Next Generation VNX Series Released … by Brian Beeler. While the preliminary slidedecks mention VNX2, the second generation VNX is jsut VNX. No 2 at the end.

In the table below, the second generation VNX specifications (per SP except as noted). The VNX5200 will come out next year?

VNX5200 VNX5400 VNX5600 VNX5800 VNX7600 VNX8000
Max FE ports 12? 16? 20 20 20 40
Max UltraFlex I/O 2 4 5 5 5 11
embedded I/O 2 SAS? 2 SAS 2 SAS 2 SAS 2 SAS none
Max SAS 2 6 6 6 16
Max FAST Cache 600GB 1TB 2TB 3TB 4.2TB 4.2TB
Max drive 125 250 500 750 1000 1500*
Xeon E5 1.2GHz 4c 1.8GHz 4c 2.4GHz 4c 2.0GHz 6c 2.2GHz 8c 2×2.7G 8c
Memory 16GB 16GB 24GB 32GB 64GB 128GB
Cores 4 4 4 6 8 16


Below is the back-end of the VNX5400 DPE. The DPE has 2 SPs. Each SP has 5 slots? One the top are the power supply, battery backup unit (BBU) and SAS module with 2-ports. One the bottom, the first module is for management.




Below is the EMC VNX 8000 SPE back-end


I/O module options for the VNX are: quad-port 8Gb/s FC, quad-port 1Gb/s Ethernet, dual-port 10GbE. The VNX 5600 and up can also support a quad-port 6Gb/s SAS module.


Updated 2013-02

While going through the Flash Management Summit 2012 slide decks, I came across the session Flash Implications in Enterprise Storage Designs by Denis Vilfort of EMC, that provided information on performance of the CLARiiON, VNX, a VNX2 and VNX Future.

A common problem with SAN vendors is that it is almost impossible to find meaningful performance information on their storage systems. The typical practice is to cited some meaningless numbers like IOPS to cache or the combined IO bandwidth of the FC ports, conveying the impression of massive IO bandwidth, while actually guaranteeing nothing.

VNX (Original)

The original VNX was introduced in early 2011? The use of the new Intel Xeon 5600 (Westmere-EP) processors was progressive. The decision to employ only a single socket was not.


Basic IO functionality does not require huge CPU resources. But the second socket would double memory bandwidth, which is necessary for driving IO. Data read from storage must first be written to memory before being sent to host? The second processor would also better support a second IOH. Finally, the additional CPU resources would support the value-add features that SAN vendors so desparately try to promote.

EMC did provide the table below on their VNX mid-range systems in the document “VNX: Storage Technology High Bandwidth Application” (h8929) showing the maximum number of front-end FC and back-end SAS channels along with the IO bandwidths for several categories. This is actually unusual for a SAN storage vendor, so good for EMC. Unfortunately, there is no detailed explanation of the IO patterns for each category.


Now obviously the maximum IO bandwidth can be reached in the maximum configuration, that is with all IO channels and all drive bays populated. There is also no question that maximum IO bandwidth requires all back-end IO ports populated and a sufficient number of front-end ports populated. (The VNX systems may support more front-end ports than necessary for configuration flexibility?)

However, it should not be necessary to employ the full set of hard disks to reach maximum IO bandwidth. This is because SAN systems are designed for capacity and IOPS. There are Microsoft Fast Track Data Warehouse version 3.0 and 4.0 documents for the EMC VNX 5300 or 5500 system. Unfortunately Microsoft has backed away from the bare table scan test of disk rate in favor of a composite metric. But it does seem to indicate that 30-50MB/s per disk is possible in the VNX.

What is needed is a document specifying the configuration strategy for high bandwidth specific to SQL Server. This includes the number and type of front-end ports, the number of back-end SAS buses, the number of disk array enclosures (DAE) on each SAS bus, the number of disks in each RAID group and other details for each significant VNX model. It is also necessary to configure the SQL Server database file layout to match the storage system structure, but that should be our responsibility as DBA.

It is of interest to note that the VNX FTDW reference architectures do not employ Fast Cache (flash caching) and (auto) tiered-storage. Both of these are an outright waste of money on DW systems and actually impedes performance. It can make good sense to employ a mix of 10K/15K HDD and SSD in the DW storage system, but we should use the SQL Server storage engine features (filegroups and partitioning) to place data accordingly.

A properly configured OLTP system should also employ separate HDD and SSD volumes, again using of filegroups and partitioning to place data correctly. The reason is that the database engine itself is a giant data cache, with perhaps as much as 1000GB of memory. What do we really expect to be in the 16-48GB SAN cache that is not in the 1TB database buffer cache? The IO from the database server is likely to be very misleading in terms of what data is important and whether it should be on SSD or HDD.

CLARiiON, VNX, VNX2, VNX Future Performance

Below are performance characteristics of EMC mid-range for CLARiiON, VNX, VNX2 and VNX Future. This is why I found the following diagrams highly interesting and noteworthy. Here, the CLARiiON bandwidth is cited as 3GB/s and the current VNX as 12GB/s (versus 10GB/s in the table above).


I am puzzled that the VNX is only rated at 200K IOPS. That would correspond to 200 IOPS per disk and 1000 15K HDDs at low queue depth. I would expect there to be some capability to support short-stroke and high-queue depth to achieve greater than 200 IOPS per 15K disk.

The CLARiiON CX4-960 supported 960 HDD. Yet the IOPS cited corresponds to the queue depth 1 performance of 200 IOPS x 200 HDD = 40K. Was there some internal issue in the CLARiiON. I do recall a CX3-40 generating 30K IOPS over 180 x 15K HDD.

A modern SAS controller can support 80K IOPS, so the VNX 7500 with 8 back-end SAS buses should handle more than 200K IOPS (HDD or SSD), perhaps as high as 640K? So is there some limitation in the VNX storage processor (SP), perhaps the inter-SP communication? or a limitation of write-cache which requires write to memory in both SP?


Below (I suppose) is the architecture of the new VNX2. (Perhaps VNX2 will come out in May with EMC World?) In addition to transitioning from Intel Xeon 5600 (Westmere) to E5-2600 series (Sandy Bridge EP), the diagram indicates that the new VNX2 will be dual-processor (socket) instead of single socket on the entire line of the original VNX. Considering that the 5500 and up are not entry systems, this was disappointing.


VNX2 provides 5X increase in IOPS to 1M and 2.3X in IO bandwidth to 28GB/s. LSI mentions a FastPath option that dramatically increases IOPS capability of their RAID controllers from 80K to 140-150K IOPS. My understanding is that this is done by completely disabling the cache on the RAID controller. The resources to implement caching for large array of HDDs can actually impede IOPS performance, hence caching is even more degrading on an array of SSDs.

The bandwidth objective is also interesting. The 12GB/s IO bandwidth of the original VNX would require 15-16 FC ports at 8Gbps (700-800MBps per port) on the front-end. The VNX 7500 has a maximum of 32 FC ports, implying 8 quad-port FC HBAs, 4 per SP.

The 8 back-end SAS busses implies 4 dual-port SAS HBAs per SP? as each SAS bus requires 1 SAS port to each SP? This implies 8 HBAs per SP? The Intel Xeon 5600 processor connects over QPI to a 5220 IOH with 32 PCI-E gen 2 lanes, supporting 4 x8 and 1×4 slots, plus a 1×4 Gen1 for other functions.

In addition, a link is needed for inter-SP communication. If one x8 PCI-E gen2 slot is used for this, then write bandwidth would be limited to 3.2GB/s (per SP?). A single socket should only be able to drive 1 IOH even though it is possible to connect 2. Perhaps the VNX 7500 is dual-socket?

An increase to 28GB/s could require 40 x8Gbps FC ports (if 700MB/s is the practical limit of 1 port). A 2-socket Xeon E5-2600 should be able to handle this easily, with 4 memory channels and 5 x8 PCI-E gen3 slots per socket.

VNX Future?

The future VNX is cited as 5M IOPS and 112GB/s. I assume this might involve the new NVM-express driver architecture supporting distributed queues and high parallelism. Perhaps the reason both VNX2 and VNX Future are described is that the basic platform is ready but not all the components to support the full bandwidth?


The 5M IOPS should be no problem with an array of SSDs, and the new NVM express architecture of course. But the 112GB/s bandwidth is curious. The number of FC ports, even at a future 16Gbit/s is too large to be practical. When the expensive storage systems will finally be able to do serious IO bandwidth, it will also be time to ditch FC and FCOE. Perhaps the VNX Future will support infini-band? The puprose of having extreme IO bandwidth capability is to be able to deliver all of it to the database server on demand. If not, then the database server should have its own storage system.

The bandwidth is also too high for even a dual-socket E5-2600. Each Xeon E5-2600 has 40 PCI-E gen3 lanes, enough for 5 x8 slots. The nominal bandwidth per PCIe G3 lane is 1GB/s, but the realizable bandwidth might be only 800MB/s per lane, or 6.4GB/s. A socket system in theory could drive 64GB/s. The storage system is comprised of 2 SP, each SP being a 2-socket E5-2600 system.

To support 112GB/s each SP must be able to simultaneously move 56GB/s on storage and 56GB/s on the host-side ports for a total of 112GB/s per SP. In addition, suppose the 112GB/s bandwidth for read, and that the write bandwidth is 56GB/s. Then it is also necessary to support 56GB/s over the inter-SP link to guarantee write-cache coherency (unless it has been decided that write caching flash on the SP is stupid).

Is it possible the VNX Future has more than 2 SP’s? Perhaps each SP is a 2-socket E5-4600 system, but the 2 SPs are linked via QPI? Basically this would be a 4-socket system, but running as 2 separate nodes, each node having its own OS image. Or that it is a 4-socket system? Later this year, Intel should be releasing an Ivy Bridge-EX, which might have more bandwidth? Personally I am inclined to prefer a multi-SP system over a 4-socket SP.

Never mind, I think Haswell-EP will have 64 PCIe gen4 lanes at 16GT/s. The is 2GB/s per lane raw, and 1.6GB/s per lane net, 12.8GB/s per x8 slot and 100GB/s per socket. I still think it would be a good trick if one SP could communicate with the other over QPI, instead of PCIe. Write caching SSD at the SP level is probably stupid if the flash controller is already doing this? Perhaps the SP memory should be used for SSD metadata? In any case, there should be coordination between what each component does.


It is good to know that EMC is finally getting serious about IO bandwidth. I was of the opinion that the reason Oracle got into the storage business was that they were tired of hearing complaints from customers resulting from bad IO performance on the multi-million dollar SAN.

My concern is that the SAN vendor field engineers have been so thoroughly indoctrinated in the SaaS concept that only capacity matters while having zero knowledge of bandwidth, that they are not be able to properly implement the IO bandwidth capability of the existing VNX, not to mention the even higher bandwidth in VNX2 and Future.

unsorted misc






EMC VNX Early 2011?

VNX came out in early 2011 or late 2010? All VNX models use the Xeon 5600 processors, ranging from 2.13 to 2.8GHz, and four to six cores (actually from 1.6GHz and 2 cores?). The 5100, 5300 and 5500 are comprised of two Disk-processor enclosures (DPE) that house both the storage processors and the first tray of disks. The 5700 and 7500 models are comprised of Storage-processor enclosures (SPE) that house only the storage processors. Two DPE or SPE comprise an Array.

VNX 5100 VNX 5300 VNX 5500 VNX 5700 VNX 7500
Max Drives 75 125 250 500 1000
Enclosure 3U Disk + SP 3U Disk + SP 3U Disk + SP 2U SP 2U SP
DAE Options 25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
25 x 2.5″-2U
15 x 3.5″-3U
60 x 3.5″-4U
Memory per Array 8GB 16GB 24GB 36GB 48GB
Max UltraFlex IO
Modules per Array
0 4 4 10 10
Embedded IO Ports
per Array
8 FC & 4 SAS 8 FC & 4 SAS 8 FC & 4 SAS
Max FC Ports
per Array
8 16 16 24 32
SAS Buses
(to DAEs)
2 2 2 or 6 4 4 or 8
Freq 1.6GHz 1.6GHz 2.13GHz 2.4GHz 2.8GHz
cores 2 4 4 4 6
Mem/DPE 4GB 8GB 12GB 18GB 24GB

The VNX front-end is FC with options for iSCSI. The back-end is all SAS (in the previous generation, this was FC). The 5100-5500 models have 4 FC ports and 1 SAS bus (2 ports) embedded per DPE, for 8 FC and 2 SAS busses per array. The 5100 does not have IO expansion capability. The 5300 and 5500 have 2 IO expansion ports per DPE, for 4 total in the array. The 5300 only allows front-end IO expansion, while the 5500 allows expansion on both front-end and back-end IO.

The 5300 and higher VNX models can also act as file servers with X-blades in the IO expansion slots. This capability is not relevent to high-performance database IO and is not considered here.

Disk-array enclosure (DAE) options are now 25 x 2.5″ in 2U, 15 x 3.5″ in 3U or a 60 x 3.5″ in 4U. The hard disk long dimemsion is vertical, the 1″ disk height is aligned along the width of the DAE for 12 across, and this is 5 deep.

An UltraFlex IO Module attaches to a PCI-E slot? (x8?). Module options are quad-port FC (upto 8Gbps), dual-port 10GbE, or quad-port 1GbE, or 2 SAS busses (4-ports). So a module could be 1 SAS bus (2 ports), 4 FC ports etc?

Each SAS port is 4 lanes at 6Gbp/s and 2 ports make 1 “bus” with redundant paths.

The first 4 physical disks reserves 192GB per disk.

There is an EMC document h8929-vnx-high-bandwidth-apps-ep with useful information. more later. The diagram below is from the EMC VNC document. The VNX storage engine core is a Westmere processor (1 or 2?) with 3 memory channels, and IO adapters on PCI-E gen 2. The backend is SAS, and the front-end to host can be FC, FCoE or iSCSI.

Below is the VNX System architecture from an EMC slidedeck titled “Introducing VNX Series”. Note EMC copyright, so I suppose I should get permission to use? In block mode, only the VNX SP is required. In file mode, up to four X-Blades can be configured?

Below from: Introducing VNX Series, Customer Technical Update


Below from h8929


As far as I can tell, the VNX models have a single Xeon 5600 processor (socket). While it may not take much CPU-compute capability to support a SAN storage system, there is a significant difference in the IO capability with 2 processor sockets populated (6 memory channels instead of 3), noting that IO must be writen to memory from the inbound side, then read from memory to the outbound side.

VNX 5100 VNX 5300 VNX 5500 VNX 5500* VNX 5700 VNX 7500
Backend SAS Buses 2 2 2 6* 4 4 or 8 Max Frontend FC 8 16 16 16 24 32 DSS Bandwidth (MB/s) 2300 3600 4200 4200 6400 7300 DW Bandwidth (MB/s) 2000 3200 4200 6400 6400 10000 Backup BW – Cache bypass mode 700 900 1700 1900 3300 7500 Rich Media BW 3000 4100 5700 5700 6200 9400

Note: * VNX 5500 Hi-BW option consumes all the flex-IO modules, and bandwidth is limited by FC front-end?


The SAS IO expansion module adds 4 SAS ports for a total of 6 ports, since 2 are integrated. However, only a total of 4 ports (2 busses) are used per DPE.

Full Data Warehouse bandwidth requires at least 130 x 15K SAS drives.


h8177 says:
VNX5100 can support 1,500MB/s per DPE or 3,000MB/s for the complete 5100 unit.
VNX5300 can support 3,700MB/s for the complete unit.
VNX5500 can support 4,200MB/s for the complete unit on integrated back-end SAS ports, and 6,000MB/s with additional back-end SAS ports.

Flare 31.5 talks about the VNX5500 supporting additional front-end and back-end ports in the 2 expansion slots. To achieve the full 6,000MB/s, the integrated 8Gbps FC ports must be used in combination with additional Front-end ports in one of the expansion slots


The Cisco/EMC version of the SQL Server Fast Track Data Warehouse employs one VNX 5300 with 75 disks and two 5300’s with a total of 150 disks, each VNX with 4 x 10Gb FCoE connections. The throughput is 1985 for the single 5300 and 3419MB/s for two. This is well below the list bandwidth of 3GB/s+ for the VNX5300, which may have required 130 disks?

Of the 75 disks on each 5300, only 60 are allocated to data. So the 1985MB/s bandwidth corresponds to 33MB/s per disk, well below the Microsoft FTDW reference of 100MB/s per disk. The most modern 15K 2.5in hard drives are rated for 202MB/s on the outer tracks (Seagate Savvio 15K.3). The Seagate Savvio 10K.5 is rated for 168MB/s on the outer tracks. With consideration for the fact that perfect sequential placement is difficult to achieve, the Microsoft FTDW target of 100MB/s per disk or even a lower target of 50MB/s per disk is reasonable, but 33MB/s per disk is rather low.


Data warehouse IO is 512KB random read.
DSS is 64KB sequential read.
Backup is 512KB sequential write.
Rich media is 256KB sequential read.

Deploying EMC VNX Unified Storage Systems for Data Warehouse Applications (Dec 2011)
Introduction to the EMC VNX Series, A Detailed Review (Sep 2011)

Other EMC documents h8297 Cisco Reference Configurations for Microsoft SQL Server 2008 R2 Fast Track Data Warehouse 3.0 with EMC VNX5300 Series Storage Systems
h8929 VNX: Storage Technology High Bandwidth Applications

ادامه مطلب

مقایسه استوریج 3PAR با دیگر استوریج ها

HP 3PAR StoreServ 7000 BattleCard

‘Locked out’ of a storage opportunity by vendor policy, unable to quote a solution that’s already been quoted and progressed by a competitor? The answer is simple. ‘Just HP it’! with Avnet and HP 3PAR StoreServ 7000. Use this document to re-open the door to the opportunity, and position HP favorably against the competition.

Where HP 3PAR StoreServ 7000 wins against the whole market:


Key Features






Unlock every storage opportunity with Avnet and HP 3PAR StoreServ 7000

Remember, if you find yourself locked out of a storage opportunity by vendor policy, unable to quote a solution that’s already been quoted and progressed by a competitor ‘Just HP it’. Your HP team at Avnet has created a dedicated programme and resource to support such a scenario through:
n A dedicated hot desk – get a quick response and quicker turnaround times to support you to compete
n A dedicated e-mail address – email a dedicated address, accelerating response quote turnarounds
n Pre-approved pricing of comparison 3PAR configs – faster pricing turnaround, no issues getting OPG
n Avnet’s HP Demo Facility – Partners can bring their customers to ‘The Resource’ demonstration facility in Bracknell, so together we can prove concepts, demonstrate products and solutions, train and close business.

ادامه مطلب

ریستارت کردن سرویسها در Unisphere Management Server

ریستارت کردن Management Service می تواند کلیه مشکلات مربوط به Unisphere UI و نیز تفاوتهای میان اینترفیس UI و CLI را کاملا پاک کرده و مشکل را کاملا حل و فصل می نماید.

ریستارت نمودن Management Service در دستگاه استوریج EMC شامل هیچگونه Downtime و خرابی نمی شود.

این پروسه باید بر روی هر دو استوریج پراسسور Storage Processor انجام شود تا تاثیر لازم را بگذارد.

Web Browser خود را باز نموده و طبق نمونه زیر وارد صفحه مدیریت SP شوید:


نام کاربری و کلمه عبور را که بصورت پیش فرض sysadmin می باشد وارد نمایید.

بر روی دکمه Submit کلیک فرمایید.

صفحه Network Configuration مربوط به SP نشان داده می شود.

به قسمت پایین صفحه حرکت کنید.

بر روی دکمه مربوط به Restart Management Server کلیک می کنیم و در ادامه تاییدیه را انتخاب و بر روی دکمه Submit کلیک می کنیم.

این اقدام باعث قطعی ارتباط با وب Management Server می شود و این قطعی حداکثر تا 10 دقیقه می تواند طول بکشد.

بعد از ریستارت شدن موفق یکی از استوریج پراسسور ها می توانید استوریج پراسسور دومی را نیز ریستارت نمایید.

در صورت بروز هرگونه مشکل بر روی استوریج EMC خود با کارشناسان ما تماس بگیرید.

شماره تماس: 88884268

ادامه مطلب

نصب کابلهای استوریج VNX5300 Unified و DAE ها

Shown in the upcoming figures (Figure 80 on page 94 and Figure 81 on page 96) are
graphical representations of SAS cabling in a DPE-based VNX storage platform, the
VNX5300 File. The Storage Processors connect to the DAEs with SAS cables. The cables
connect LCCs in the DAEs of a storage platform in a daisy-chain topology.
The DPE is automatically Enclosure 0 (EA0). The DAE connected to SAS output port 0 is
Enclosure 1 (EA1).
The first DAE connected to the Storage Processor SAS output port 1 is designated
Enclosure 0 (EA0). Each DAE connected after the first DAE increments the enclosure
number by one. All enclosures connected to SAS Port 0 will show an ID of 0.
Figure 80 on page 94 shows the first example of a VNX5300 File platform with two DAEs
(one 3U, 15 disk drive DAE and the other a 2U, 25 disk drive DAE) or a VNX5300 platform
with a total of from 55 disk drives (if the DPE is a 3U, 15 disk drive device) or 65 disk
drives (if the DPE is a 3U, 25 disk drive device).
The SAS ports on the VNX5300 platform 3U DPE are labeled 0 and 1. SAS 0 is connected
internally to the SAS expander that connects the internal DPE disks. Since SAS 0 is
already connected internally to the DPE disks, the first DAE is connected to SAS 1 to
balance the load on the SAS ports. The second DAE is connected to SAS 0, the third DAE is
connected to SAS 1, and so on.
In Figure 80 on page 94, notice that each DAE device supports two completely redundant
buses (LCC A and LCC B).
The rule of load or bus balancing is applied to all DAEs. That is, Bus 0 is Enclosure
Address 0 (EA0), Bus 1 is EA0, and so on. In the case of the VNX5300 platform, Bus 0 EA0
is the DPE (SP A and B). So, to balance the load, Bus 1 EA0 becomes the first DAE (LCC A
and B) in the cabinet with the next DAE (LCC A and LCC B) as Bus 0 EA1, and so on. If you
have several DAEs in your VNX5300 platform, you can daisy chain them within that
particular bus. However, it is recommended that you balance each bus. In other words,
always optimize your environment by using every available bus, and spreading the
number of enclosures as evenly as possible across the buses.
Note: On the DPE and DAE, each cable connector includes a symbol to denote the
direction the cable needs to connect to. The cable connector that has a double circle
symbol is the input to the device. The cable connector with the double diamond
symbol is the output from the device.
Notice the description of the cable labels affixed to the SP to DAE cables.

The cables shown in Figure 81 are:
Note: The cable colors shown in the example are orange for Bus 0 and blue for Bus 1.
◆ Cable 1, blue, DPE to 1st DAE (labels SP A SAS 1 to LCC A)
◆ Cable 2, blue, DPE to 1st DAE (labels SP B SAS 1 to LCC B)
◆ Cable 3, orange, DPE to 2nd DAE (labels SP A SAS 0 to LCC A)
◆ Cable 4, orange, DPE to 2nd DAE (labels SP B SAS 0 to LCC B)


ادامه مطلب

بررسی سخت افزار های استوریج های EMC VNX

سری استوریج های VNX به خانواده استوریج های Midrange-Enterprise شرکت EMC اطلاق می شود.

محصولات این سری دو لایه اطلاعاتی File و Block را با هم در یک دستگاه Unified ساپورت می کند.

در این پست در خصوص سخت افزار های موجود بر روی استوریج های خانواده VNX و بطور نمونه دستگاه VNX5500 خواهیم پرداخت.

Figure 1. Block and File (Unified) VNX5500 platform

DPE Disk-Processor Enclosure

DPE یک محفظه Enclosure به اندازه 3U می باشد و شامل دو عدد استوریج پراسسور به نامهای SPA و SPB می باشد و همچنین به عنوان اولین محفظه دیسک محسوب می شود. DPE معمولا هارد های دو و نیم اینچی را ساپورت می کند.

Figure 3. Back view of DEP with SP A (right) and SPB (left)

SPs Storage Processors

SP داده های بلاک را با تکنولوژی های UltraFles I/O و با استفاده از پروتکل های Fibre Channel و iSCSI و FCoE انتقال می دهد. استوریج پراسسورها دسترسی به کلیه هاستهای اکسترنال و فایل ها در استوریج را فراهم می کنند.

Figure 4.  Closeup of DPE-based storage processor

در شکل بالا می توانید یکی از SP ها را با تمامی پورتهای موجود مشاهده فرمایید

SPE Storage Processor Enclosure 

SPE یک دستگاه با اندازه 2U می باشد که استوریج پراسسور ها در آن قرار می گیرند. این دستگاه در مدلهای VNX5700 و VNX7500 وجود دارد.


 Control Station

Control Station ها دستگاههای 1U می باشند که مدیریت کامپوننت های مربوط به قسمت فایل را در اختیار کاربر قرار می دهد این کامپوننت های سخت افزاری معمولا Data Mover ها و Blade ها می باشند. کنترل استیشن ها بصورت Failover می باشند و در صورت کانفیگ شدن بصورت HA از یک کنترل استیشن دیگری به موازات کنترل استیشن اولی استفاده می شود.

Figure 4. Control Station rear view

Data Mover

Data Mover و یا Blade از طریق پورت های پشت دستگاه به دیتا دسترسی پیدا می کند و دسترسی هاستها با استفاده از تکنولوژی UltraFlex I/O که پروتکل های NFS و CIFS و pNFS را فراهم می کند. Data Mover ها در هر استوریج مقیاس پذیر بوده و قابلیت Redundancy را ساپورت می کنند.

DME Data Mover Enclosure

دستگاه DME بصورت 2U می باشد و Data Mover ها یا همان Blade ها در آن نگهداری می شوند. این دستگاه در کلیه استوریج های VNX  و برای هندل کردن لایه اطلاعاتی فایل مورد استفاده قرار می گیرد.

Figure 5. DME rear view

ادامه مطلب

استوریج EMC VNX5200

استوریج EMC VNX5200

استوریج EMC VNX5200 استوریجی در اندازه Entry می باشد که برای محیطهایی که به دنبال استفاده از استوریج بلاک با قابلیت تبدیل و استفاده در ساختار فایل نیز می باشند مناسب می باشد. استوریج VNX2 این سری برای محیطهای بلاک توسط کمپانی سازنده پیشنهاد می شود. استوریج VNX5200 قابلیت پشتیبانی از 125 عدد هارد 2.5 اینچی و یا 3.5 اینچی مدل SAS ، NL-SAS و SSD را دارد که مطابق با آخرین معماری MCx Multicore شرکت EMC می باشد.


شرکت EMC با ارائه سری VNX2 یک رسد خیلی مناسبی در حوزه سخت افزارهای این سری انجام داده است. این ارتقاهای سخت افزاری شامل استفاده از PCIe 3.0 به جای PCIe 2.0 و معماری MCx که شامل Multicore RAID و Multicore cache و Multicore FAST Cache می باشد و می تواند از هسته های پردازنده های موجود در SP ها به طرز بهینه ای استفاده نماید.

بسیاری از این ارتقاها در جهت استفاده استراتژیک از حافظه فلش می باشد به دلیل اینکه در ساختار هیبریدی زمان استفاده از حافظه فلش بسیار مهم می باشد. مطابق با شرکت EMC ، نزدیک 70 درصد از استوریج های VNX2 هیبرید تولید شده امروزی با هاردهای فلشی پیکربندی می شوند و نرم افزار EMC FAST Suite برای راه اندازی قابلیت های Caching و Tiering ارائه می شود.


استوریج VNXe3200 نیز اخیرا توسط EMC آپدیت شده است. استوریج VNX5200 برای کاربران Mid ساخته شده است و برای استفاده به عنوان استوریج اصلی در سازمانهایی که اندازه آنها قدری بزرگتر از استوریج VNXe3200 می باشند مناسب می باشد.

استوریج VNX5200 می تواند در لایه بلاک و فایل و یا Unified مورد استفاده قرار گیرد و این استوریج دارای شاسی سه یونیتی با قابلیت پشتیبانی از 25 عدد هارد دیسک 2.5 اینچی بر روی شاسی خود می باشد. شاسی استوریج های EMC VNX را با نماد DPE که مخفف Disk Proccessor Enclosure می باشد نشان می دهند.

این دستگاه دارای پردازنده های 1.2 گیگاهرتزی متشکل از چهار هسته Xeon E5 و مقدار 16 گیگابایت حافظه رم می باشد.

این دستگاه از پروتکل های FC ، FCoE ، iSCSI و NAS پشتیبانی می کند.


استوریج های خانواده VNX2 دارای چهار سری دیگری بجز VNX5200 و VNXe3200 می باشد.

ظرفیت SSD FAST Cache حداکثر تعداد هارد دیسک حداکثر ظرفیت ذخیره سازی سری استوریج
یک ترابایت 250 عدد یک پتابایت VNX5400
دو ترابایت 500 عدد دو پتابایت VNX5600
سه ترابایت 750 عدد سه پتابایت VNX5800
4.2 ترابایت 1000 عدد چهار پتابایت VNX7600
4.2 ترابایت 1500 عدد شش پتابایت VNX8000



استوریج بلاک VNX5200 از دو پردازنده Storage Processor با تکنولوژی 6G SAS بهره مند می باشد. در مدل های Unified این دستگاه می توان از یک یا دو عدد Data Mover و یک کنترلر برای سرویس NAS استفاده نمود. این دستگاه نیز به مانند دیگر سری استوریج های VNX2 از ماژول های UltraFlex I/O برای ساختار بلاک و فایل استفاده می کند. استوریج VNX5200 حداکثر  سه عدد Data Mover و حداکثر سه ماژول UltraFlex در هر Data Mover را ساپورت می کند.

ساختار چند هسته ای MCx 

استوریج VNX با تکنولوژی چند هسته ای پردازنده و نسل قبلی این پلتفرم بصورت پیش فرض قابلیت مقیاس پذیری دینامیک پردازنده را در سطح بالا نداشتند. در سیستم عامل OE سری های VNX1 و CLARiiON CX قابلیت اجرای سرویس RAID بر روی یک هسته خاص را ندارد ولی در مدل تک هسته ای FLARE ، تمامی هسته های پردازنده در هسته اولی جمع می شوند. برای مثال تمامی پردازش های ورودی توسط هسته صفر مدیریت می شوند و حتی از طریق همین هسته به هسته های دیگر Delegate می شود تا کلیه تگناها قابل پوشش دهی باشند.

در ساختار MCx شرکت EMC ، کلیه سرویسهای استوریج بر روی کلیه هسته ها پخش می شوند.

مهمترین مزیت معماری MCx ، پشتیبانی از LUN های Active/Active در استوریج های Symmetric می باشد که به هاست ها قابلیت دسترسی همزمان از طریق SP را می دهد. قابلیت Symmetric Active/Active به دو SP اجازه نوشتن مستقیم بر روی یک LUN و بدون نیاز داشتن به ارسال آپدیت به SP اصلی را می دهد.

در حال حاضر سیستمهای VNX2 ، قابلیت دسترسی Symmetric active/active برای RAID group LUN را دارند ولی برای Pool ها پشتیبانی نمی شوند.

یکی دیگر از قابلیت های کلیدی استوریج های معماری MCx شرکت EMC ، پشتیبانی از نرم افزار EMC FAST Suite می باشد که به کاربر دستگاه قابلیت استفاده از هارد دیسکهای نا همگون را در یک Pool می دهد که باعث افزایش فزاینده سرعت و کارایی ذخیره سازی استوریج می شود. در آپدیت جدید هاردهای eMLC نیز ساپورت می شوند.

EMC VNX5200 Specifications

  • Array Enclosure: 3U Disk Processor Enclosure
  • Drive Enclosures:
    • 2.5-inch SAS/Flash (2U), 25 drives
    • 3.5-inch SAS/Flash (3U), 15 drives
  • Max SAN Hosts: 1,024
  • Min/Max Drives: 4/125
  • Max FAST Cache: 600GB
  • CPU/Memory per Array: 2x Intel Xeon E5-2600 4-Core 1.2GHz/32GB
  • RAID: 0/1/10/3/5/6
  • Max Raw Capacity: 500TB
  • Protocols: FC, FCoE, NFS, CIFS, iSCSI,
  • Storage Types: Unified, SAN, NAS, Object
  • Drive Types: Flash SSD, SAS, NL-SAS
  • Capacity Optimization: Thin Provisioning, Block Deduplication, Block Compression, File-Level Deduplication and Compression
  • Performance: MCx, FAST VP, FAST Cache
  • Management: EMC Unisphere
  • Virtualization Support: VMware vSphere, VMware Horizon View, Microsoft Hyper-V, Citrix XenDesktop
  • Max Block UltraFlex I/O Modules per Array: 6
  • Max Total Ports per Array: 28
  • 2/4/8Gb/s FC Max Ports per Array: 24
  • 1GBASE-T iSCSI Max Total Ports per Array: 16
  • Max FCoE Ports Per Array: 12
  • 10GbE iSCSI Max Total Ports per Array: 12
  • Control Stations: 1 or 2
  • Max Supported LUNs: 1,000 (Pooled)
  • Max LUN Size: 256TB (Virtual Pool LUN)
  • Max File System Size: 16TB
  • Number of File Data Movers: 1, 2 or 3
  • CPU/Memory per Data Mover: Intel Xeon 5600/6GB
  • UltraFlex I/O Expansion Modules for Block:
    • 4-Port 2/4/8Gb/s Fibre Channel
    • 4-Port 1Gb/s (copper) iSCSI
    • 2-Port 10Gb/s (optical) iSCSI
    • 2-Port 10GBASE-T (copper) iSCSI
    • 2-Port 10GbE (optical or twinax) FCoE
  • UltraFlex I/O Expansion Modules for File:
    • 4-Port 1GBASE-T
    • 4-Port 1GBASE-T and 1GbE (optical)
    • 2-Port 10GbE (optical)
    • 2-Port 10GBASE-T (copper)

طراحی و ساخت

در استوریج های VNX ، کامپوننت های مختلفی وجود دارند که در زیر به اختصار اشاره خواهیم نمود:

SPE: Storage Processor Enclosure

DPE: Disk Processor Enclosure

DAE: Disk Array Enclosure



ماژول های UltraFlex که توسط این دستگاه ساپورت می شوند:

  • Four-port 8Gb/s Fibre Channel module with optical SFP and OM2/OM3 cabling to connect to an HBA or FC switch.
  • Four-port 1Gb/s iSCSI module with a TCP offload engine and four 1GBaseT Cat6 ports.
  • Two-port 10Gb/s Opt iSCSI Module with a TCP offload engine, two 10Gb/s Ethernet ports, and an  SFP+ optical connection or an twinax copper connection to an Ethernet switch.
  • Two-port 10GBaseT iSCSI module with a TCP offload engine and two 10GBaseT Ethernet ports
  • Two-port 10GbE FCoE module with two 10Gb/s Ethernet ports and an SFP+ optical connection or a twinax copper connection
  • Four-port 6Gb/s SAS V2.0 module for backend connectivity to VNX Block Storage Processors. Each SAS port has four lanes per port at 6Gb/s for 24Gb/s nominal throughput. This module is designed for PCIe 3 connectivity and can be configured as 4x4x6 or 2x8x6.

در صورتی که بخواهیم استوریج VNX5200 را در حالت فایل و یا Unified استفاده بکنیم باید از یک یا دو عدد Data Mover استفاده کنیم. دستگاه Data Mover از یک پردازنده 2.13 گیگاهرتزی و چهار هسته پردازنده Xeon 5600 و شش گیگابایت حافظه رم بهره می برد و تا حداکثر ظرفیت 256 ترابایت به ازای هر Data Mover را ساپورت می کند.


Control Station

کنترل استیشن یک دستگاه یک یونیتی می باشد که مدیریت کارکرد Data Mover ها را بر عهده دارد. با توجه به وجود دو عدد کنترل استیشن در دستگاه قابلیت Redundancy برای این سیستم مدیریتی نیز وجود دارد.

مدیریت و سرویس های دیتا Management and Data Services


استوریج های خانواده VNX از نرم افزار Unisphere برای مدیریت خود استفاده می کنند که این نرم افزار از قابلیتهایی مانند Deduplication بهره مند می باشد.

نرم افزار Unisphere Central امکان مدیریت و مانیتورینگ چندصد استوریج را در قالب یک کنسول مدیریتی فراهم می سازد. این نرم افزار همچنین شامل نرم افزار VNX Monitoring and Reporting نیز می باشد که مدیریت مصرف و تحلیل ظرفیت ذخیره سازی را در اختیار کاربر قرار می دهد.

در محیطهای مجازی ، برای هماهنگ سازی استوریج VNX5200 در VMware vSphere می توان از نرم افزار های VAAI و VASA استفاده نمود و از این طریق ، از کنسول vSphere می توان مدیریت استوریج را انجام داد.




قابلیت Local Replication بر روی Unisphere موجود می باشد ولی برای امنیت دیتا باید از پک RecoverPoint Local Replication استفاده نمود. نرم افزار VPLEX می تواند برای بالا بردن قدرت دسترسی دیتاسنترها مورد استفاده قرار گیرد. استفاده از Remote Replication نیز گزینه مناسبی برای امنیت داده ها به حساب می آید.

نتیجه گیری



  • پشتیبانی از بسیاری از پروتکل های ارتباطی با استفاده از ماژول های UltraFlex
  • پشتیبانی از پیکربندی بلاک و فایل و Unified
  • قابلیت هماهنگ سازی و استفاده در ساختارهای مجازی


  • حداکثر ظرفیت 600 گیگابایت FAST Cache

گروه فنی و مهندسی وی سنتر ارائه دهنده کلیه تجهیزات و راهکارهای ذخیره سازی EMC آمادگی خود را برای تامین نیازهای مشتریان اعلام می دارد.

شماره تماس: 88884268




ادامه مطلب

مجازی سازی استوریج با EMC ViPR


مدیریت آسان و اتوماتیک استوریج با استفاده از EMC ViPR


EMC ViPR یک استوریج Software-Defined می باشد که شرکت EMC در سال 2013 ارائه داد. نرم افزار ViPR با استفاده از ساده سازی استوریج مدیریت آن را آسان و اتوماتیک می سازد.

Mobile, Cloud, Big Data and Social are driving unprecedented data growth as
evident in the massive rise of storage consumption around the world. While data
growth presents new opportunities, cost effectively controlling, managing and
accessing it presents a host of new challenges. Current storage infrastructures
require the efficiencies of automation and management insight to keep pace with
today’s always on dynamic businesses.
Most organizations have storage infrastructure comprised of different array types,
often from different vendors, to deliver a wide variety of storage services. Each
storage platform is chosen based on its ability to handle specific workloads, each
with its own unique set of APIs, management and monitoring tools. With this
diversity comes the challenge of managing these storage silos efficiently. As the
amount of data grows, it takes an increasingly large number of specialized IT
administrators executing repetitive, manual tasks to deliver and optimize storage
services in order to stay competitive. Businesses need to redefine and transform
how they deliver storage to meet service levels and control costs. Business as usual
is not a sustainable option.
EMC® ViPR® Controller lets you automate provisioning of storage services, reducing
manual tasks up to 63%* and improves operational efficiency. You can deliver
storage-as-a-service to consumers, minimizing dependencies on your IT team.
ViPR Controller is storage automation software based on the open source
development project CoprHD. It centralizes and transforms storage into a simple
and extensible platform by abstracting and pooling resources to deliver automated,
policy-driven storage services on-demand via a self-service catalog. With vendor
neutral centralized storage management, your team can reduce storage
provisioning costs by up to 73%**, provide choice and deliver a path to the cloud
through storage-as-a-service.
ViPR Controller delivers repeatable, built-in best practices and intelligent processes
to automate storage provisioning and reclamation tasks. ViPR Controller makes it
as easy to consume enterprise storage as it is to consume public cloud storage
services. It reduces storage provisioning tasks from weeks/days to mere minutes,
freeing administrators from manual tasks and minimizing risk.

Reducing the time needed to deliver a VCE Vblock System infrastructure in support
of a new service or respond to additional resource needs has become a necessity in
IT. Without business agility, you may fall behind on new business opportunities,
impacting company image and limiting your revenue growth. Automate the cluster
provisioning lifecycle to efficiently and rapidly respond to IT requests. Simplify the
management of VCE Vblock System infrastructure services and transform your IT
department into a more efficient organization with ViPR Controller.
Simplify how IT consumers request and receive storage resources via a policydriven,
self-service catalog – on-demand. Users can easily subscribe – in 5 simple
steps* – to storage resources that meet their workload demands. Users are not
required to know or care about the underlying hardware and software that is
providing the storage to their application. Based on policies pre-defined by storage
experts, ViPR Controller automatically provisions the right hardware and software to
meet their needs. Storage resources are instantly made available, minimizing userIT
interactions, freeing up SME’s to focus on higher priority projects.
ViPR Controller includes reporting capabilities to gain visibility into managed
resources and identifies available capacity within physical arrays that can be brought
under management.
ViPR SRM provides increased visibility and control of multi-vendor traditional and
software-defined data centers. With ViPR SRM you can:
• Track capacity consumption across the entire storage environment
• Monitor and report on performance trends from host to storage
• View the physical resources and relationship dependencies
• Streamline chargeback reporting by Service Levels
Reporting for ViPR Controller and ViPR SRM share a common console to centralize
management and provide end-to-end analysis across multi-vendor storage
environments. Take action on ViPR SRM insights with ViPR Controller to optimize
resources for improved utilization and cost savings.

ViPR Controller is an extensible storage architecture, offering enterprises and service
providers greater flexibility to choose from a variety of platforms – EMC, 3rd-party
and cloud stacks – to meet the specific requirements of their business. Supported
storage platforms and environments include:
• EMC Storage: Data Domain®, ECS, Isilon®, ScaleIO, VMAX®, VNX®,
VNXe3200, XtremIO®
• Converged Infrastructure: VCE® Vblock Systems
• 3rd Party Storage: HDS, NetApp, HP, IBM, Dell, LeftHand, Oracle, SolidFire
• Data Protection Technologies: Hitachi snaps, IBM snaps, RecoverPoint®,
• Cloud Stacks: Microsoft, OpenStack, VMware
ViPR Controller creates a unified storage platform that appears as logical storage
pool accessible by an open, REST-based API that allows you to:
• Integrate with IT service management solutions
• Integrate with VMware through the ViPR Plug-In for vRealize Orchestrator
and the ViPR Management Pack for vRealize Operations allowing supported
storage to be managed and provisioned by VMware
• Deliver a path to the cloud while keeping your most valuable assets under
your control

ViPR Controller development is driven by the open source community via project
CoprHD located at This type of development model encourages
community collaboration for expanding the breadth and depth of features and
functionality including support for non-EMC storage arrays and data protection
technologies. It also strengthens ViPR Controller as a single, vendor-neutral control
point for software-defined storage automation.
With ViPR Controller, your organization is no longer bound by physical storage
limitations. You can redefine and transform your existing storage infrastructure into
a simple and extensible platform that can deliver fully automated storage to users
and applications.
ViPR Controller is available as a no-charge software download for non-production
use. For support, customers can join the EMC ViPR Community to access
documentation, user guides, FAQs, training and join ViPR community user
discussions. Download ViPR Controller today at
Contact your EMC sales representative or authorized reseller to learn more about the
ViPR Download and how it can benefit your organization. You can also view our
solutions in the EMC Store.
*Realizing Software-Defined Storage with EMC ViPR, Principled Technologies, 2014
**Reducing OPEX with ViPR Controller and ViPR SRM, Principled Technologies, 2014



ادامه مطلب

Control Station در استوریج های EMC


Control Station به یک استیشن که برای مدیریت استوریج از طریق محیط GUI مورد استفاده قرار می کیرد گفته می شود.

Control Station معمولا جاهایی مورد استفاده قرار می گیرد که ما یک استوریج Unified داشته باشیم و یا استوریج NAS یعنی Data Mover ها را از طریق آن مدیریت می کنیم.

Storage Processor به واحدی گفته می شود که وظیفه انجام عملیات پردازشی برای استوریج SAN را انجام می دهد.

Control Station یک دستگاه یک یونیتی مستقل می باشد که در پیکربندی های دستگاههای File و Unified مورد استفاده قرار می گیرد. این دستگاه ارتباط مدیریتی را با Blade ها برقرار می کند. Control Station ها وظیفه مدیریت و مانیتورینگ Blade ها و همچنین انجام عملیات Failover با کنترل استیشن های دیگر را دارند.

Control Station ها ارتباط شبکه ای SP ها را نیز تامین می کنند و این ارتباط از طریق پروتکل Proxy ARP اتفاق می افتد که در آن پورتهای مدیریتی کنترل استیشن ها به پورتهای مدیریتی SP ها وصل می شود.

Control Station ها همیشه بصورت جفت تهیه می شوند تا بتوان بصورت Redundant از آنها استفاده نمود و تا زمانی که استیشن اصلی در حالت Operative باشد استیشن دومی بصورت Standby کار خواهد نمود.


پورت Ethernet شبکه RJ45 که در شکل با شماره 5 نشان داده شده است از تکنولوژی IPMI استفاده می کند و به کنترل استیشن دومی وصل می شود.

در شکل زیر می توانید ساختار کلی سخت افزار های استوریج EMC VNX 5500 را مشاهده فرمایید.


گروه فنی و مهندسی وی سنتر ارائه کننده کلیه خدمات استوریج و دیتاسنتر می باشد.

شماره تماس: 88884268

ادامه مطلب

آموزش EMC

آموزش EMC

در عصر تکنولوژی و فناوری اطلاعات،به دلیل اهمیت بسیار بالای داده ها، ذخیره سازی اطلاعات به عنوان مهمترین شاخص شناخته میشود که به همین سبب شرکت های زیادی را به فعالیت در این زمینه واداشته است. در این میان شرکت بزرگ EMC به عنوان بزرگترین  و پرچمدار سیستم های ذخیره سازی داده های دیجیتالی در جهان شناخته میشود.

EMC  علاوه بر طراحی و ساخت اَبَرسیستم های ذخیره سازی اطلاعات،از نامداران سیستم های Backup ،Recovery  و Archiving  نیز میباشد. یکی از اساسی ترین و جدیدترین تکنولوژی ها برای انجام این مهم، استفاده از رایانش ابری (cloud computing ) میباشد.

EMC  با سرعت بخشیدن به مسیر استفاده از این تکنولوژی، به ذخیره سازی ، مدیریت ، حفاظت و تحلیل ارزشمندترین دارایی یک سازمان،که اطلاعات آن میباشد، از طریقی سریعتر، امن و مقروم به صرفه کمک میکند.


اهداف دوره:

بررسی معماری سیستم های ذخیره سازی و عناصر کلیدی در دیتا سنتر و همچنین کاربرد آنها در تکنولوژی های مجازی سازی وCloud Computing

بررسی اجزای فیزیکی و logical زیر ساخت ذخیره سازی که شامل RAID و سیستم های ذخیره سازی هوشمند می باشد.

بررسی تکنولوژی های Network مثل : Unified Storage ,FCOE ,Object Based ,IP-SAN ,FC-SAN

بررسی Business Continuity در زمینه راه حل های Backup & Replication

آشنایی و بررسی عناصر زیرساخت ذخیره سازی در Cloud Computing

آشنایی با ملزومات و راه حل های امنیتی حوزه SAN
آشنایی با مدیریت و مانیتورینگ زیرساخت ذخیره سازی

مخاطبان دوره :
کارشناسان و فعالان در زمینه Storage

مدیران IT

پیشنیاز دوره :
آشنایی با مفاهیم پایه شبکه

تجربه کار با سیستم عامل

تجربه کار با سیستمهای ذخیره سازی داده


سیلابس :

Storage System 

Information Storage, Virtualization, and Cloud Computing

Key Data Center Elements

Compute, Application, and Storage Virtualization

Disk Drive and Flash Drive Components



Intelligent Storage System and Storage Provisioning Including Virtual Provisioning

Storage Networking Technologies

Fibre Channel SAN Components, FC Protocol, and Operations

Block Level Storage Virtualization

iSCSI and FCIP as an IP-SAN Solutions

Converged Networking Option: FCoE

Network Attached Storage (NAS): Components, Protocol, and Operations

File-Level Storage Virtualization

Object-Based Storage and Unified Storage Platform

Backup, Archive, and Replication

Business Continuity Terminologies, Planning, and Solutions

Clustering and Multipathing Architecture to Avoid Single Points of Failure

Backup and Recovery: Methods, Targets, and Topologies

Data Deduplication and Backup in Virtualized Environment

Fixed Content and Data Archive

Local Replication in Classic and Virtual Environments

Remote Replication in Classic and Virtual Environments

Three-Site Remote Replication and Continuous Data Protection

Cloud Computing

Characteristics and Benefits

Services and Deployment Models

Cloud Infrastructure Components

Cloud Migration Considerations

Securing and Managing Storage Infrastructure 

Security Threats and Countermeasures in various domains

Security Solutions for FC-SAN, IP-SAN, and NAS Environments

Security in Virtualized and Cloud Environments

Monitoring and Managing Various Information Infrastructure Components in Classic and Virtual Environments

Information Lifecycle Management (ILM) and Storage Tiering


در عصر تکنولوژی و فناوری اطلاعات،به دلیل اهمیت بسیار بالای داده ها، ذخیره سازی اطلاعات به عنوان مهمترین شاخص شناخته میشود که به همین سبب شرکت های زیادی را به فعالیت در این زمینه واداشته است. در این میان شرکت بزرگ EMC  به عنوان بزرگترین  و پرچمدار سیستم های ذخیره سازی داده های دیجیتالی در جهان شناخته میشود.

EMC  علاوه بر طراحی و ساخت اَبَرسیستم های ذخیره سازی اطلاعات،از نامداران سیستم های Backup ،Recovery و Archiving  نیز میباشد. یکی از اساسی ترین و جدیدترین تکنولوژی ها برای انجام این مهم، استفاده از رایانش ابری(cloud computing ) میباشد.

EMC  با سرعت بخشیدن به مسیر استفاده از این تکنولوژی، به ذخیره سازی ، مدیریت ، حفاظت و تحلیل ارزشمندترین دارایی یک سازمان،که اطلاعات آن میباشد، از طریقی سریعتر، امن و مقروم به صرفه کمک میکند

مخاطبین دوره:

مدیران پایگاه داده

مدیران IT

مديران سیستم های ذخیره سازی

مدیران سیستم های مجازی سازی

کارشناسان و فعالان در زمینه Storage


سرفصل های دوره :        

Storage Design

Implement Unisphere security

Configure a VNX storage system

Manage host access to storage with Access Logix

Describe common host integration tasks and concepts

Integrate a Windows host with a VNX Block Storage system

Integrate a Linux host with a VNX Block Storage system

Describe the process to integrate ESXi with a VNX Block Storage system

Implement advanced storage features

Configure Event Monitor and Alerts

Configure Unisphere Analyzer

Describe VNX SnapView principles

Deploy and manage VNX SnapView snapshots

Deploy and manage VNX SnapView clones


گروه فنی و مهندسی وی سنتر آمادگی خود را برای برگزاری این دوره برای سازمانهای دولتی و یا شرکت های خصوصی اعلام می دارد.

شماره تماس: 88884268


ادامه مطلب

راه اندازی سایت پشتیبان به کمک SRM در VMware

امروزه بسیاری از سازمان ها حفاظت کافی از نرم افزارهایشان را هنگام بروز حادثه ندارند. در اکثر حالات DR برای هر نرم افزار کاربردی خیلی گران، پیچیده و غیرقابل اطمینان به نظر می رسد. وقتیکه حادثه ای روی می دهد DR در حقیقت نوعی بیمه برای حفاظت از داراییهای IT می باشد. مثل یک بیمه خوب بهترین DR بیشترین حفاظت را با حداقل زحمت فراهم می نماید.Vmware بیشترین انعطاف را در حفاظت از اطلاعات حساس کسب و کارتان در محیط های VMware Vsphere داردو شما می توانید با بکارگیری سرویس های مجازی یک راهکار مقرون به صرفه و ساده با مراحل کاملا خودکاربرای replication و بازیابی داده و نرم افزارهایتان در یک محیط آماده به کار فراهم آورید. یکی از وعده های مجازی سازی کاهش تعداد سرورهایی بود که برای سایت پشتیبان نیاز دارید و به نظر می رسد عادلانه است بگوییم Vmware SRM براساس این وعده ارائه شده است.

SRM با هر نوع Storage ی که شما دارید یکپارچه می شود فرقی ندارد شما از Dell، EMC و یا NETApp برای کنترل Fail Over وFail Back فضاهایی که شامل VM هایتان است استفاده می کنید، جنبه اصلی شامل چیزهایی مثل تست های غیر مخرب است که شما می توانید درطول کار این محصول ساعت ها انجام دهید در حالیکه سابقا به سختی ایجاد و نگهداری می شد.در نسخه 5 فرایند Fail back براحتی VM ها را از سایت محل تولید به سایت پشتیبان منتقل می نماید.SRM همیشه Script نویسی را پشتیبانی می نماید بنابراین درکنار اصول طرح بازیابی، کنترل می کند هر VM ی که بالا می اید با چه فرمانی بالا بیاید، و قبل از شروع VM جدید چقدر منتظر بماند. شما می توانید script نویسی VBSوPowerShell را داخل طرح بازیابی به منظور کاربردهای ویژه برای محیط های خاص بکار بگیرید.می توان تصور کرد SRM در آینده ای نزدیک کاربری خود را از عناصر بازیابی از دست خواهد داد و بیشتر به عنوان ابزار تسهیل کننده مدیریت سایت بکار خواهد رفت.برای انتقال تعداد زیادی از VM ها به یک فضای ابر عمومی یا حتی برون سپاری نیازمندی های DR به یک Cloud Provider می تواند موثر باشد.

قابلیت های جدید SRM5

VMware، Replication را داخل سکوی vSphere خودش انجام می دهد. بنابراین مشتریانی که با SRM سازگارشده اند اکنون این امکان را دارند که از Replication Array based خود تجهیزات EMC, Dell,Natapp,… بجای استفاده واقعی از Replication لایه مجازی استفاده نمایند.در LUN بندی هم این قابلیت وجود دارد که بجای دسترسی به LUN کل VM هاکه ممکن است کاربر مجوز آن را نداشته باشد، به بخشی از آن که VM های محافظت شده روی آن قراردارد دسترسی خواهد داشت.اگر شما چند سایت و در هر سایت Storage های متفاوتی داشته باشید و حتی اگر آنها یکسان باشند ممکن است Firmware یکسانی نداشته باشند به مشکل نخواهید خورد و با کمک SRM می توانید پیچیدگی ها را مدیریت کنید. vSphere Replication فقط حافظه داده را می بیند و توجهی ندارد که آن NFS، iSCSIو یا Fiber Chanel می باشد و یا روی محصولاتی مثل EMC یا Dell می باشد (محصولاتیکه LUN می سازند) که نتیجتا کار را برای Replication بین واحدهای تجاری مختلف یک سازمان بزرگ بسیار راحت خواهد کرد.


برای کسب اطلاعات بیشتر با واحد راهکارهای گروه وی سنتر تماس بگیرید.

شماره تماس: 88884268

ادامه مطلب