Tìm hiểu cách thức hoạt động của lưới sợi SAN

Giải pháp SAN là nền tảng lý tưởng cho các giải pháp có tính sẵn sàng cao; tuy nhiên, vì chi phí cho các giải pháp là bao nhiêu, nên chúng có phạm vi ứng dụng khá hẹp.

Cấu hình sai SAN là một sự lãng phí khủng khiếp của trung tâm dữ liệu và tài nguyên ngân sách CNTT. Tôi thường sử dụng sự tương tự rằng không gian ổ đĩa trên máy tính để bàn của công ty tương đương với đất ở và nhà ở nông thôn - nó rộng lớn, to lớn và tương đối rẻ tiền. Nếu đó là sự thật, thì kho lưu trữ SAN là nhà ở tại trung tâm của Khu thương mại Tokyo. Đó là, megabyte đến megabyte, một số bất động sản đắt nhất trong toàn bộ trung tâm dữ liệu của bạn.

Nếu bạn biết cách định cấu hình và duy trì SAN của mình, bạn sẽ tự tin hơn vào khả năng của mình để nhanh chóng và minh bạch cho trải nghiệm của người dùng được tối ưu hóa và đáng tin cậy ở mức cao nhất - có thể nhiều hơn bất kỳ giải pháp nào khác được triển khai trong trung tâm dữ liệu của bạn.

Giới thiệu

Cột này là một tổng quan cấp cao về cách thức hoạt động hợp lý của lưới sợi SAN. Khi đọc cột, hãy nhớ rằng hầu hết các giải pháp SAN sẽ được thiết kế xung quanh thiết kế cơ bản này, mặc dù tôi không đi sâu vào chi tiết cụ thể và giải pháp SAN của bạn có thể không tuân thủ mọi điều tôi thảo luận. Ngoài ra, tôi sẽ sử dụng thuật ngữ thường được áp dụng cho các giải pháp EMC SAN; các nhà cung cấp khác có thể có các tên khác nhau cho các thành phần khác nhau, nhưng các khái niệm chung nên giống nhau.

Mọi người thường nghĩ về SAN chỉ đơn giản là một ổ cứng lớn, nhanh, bên ngoài. Điều này đủ chính xác ở mức độ hiểu biết cơ bản nhất, nhưng SAN cũng nhiều hơn thế - và sử dụng SAN đơn giản để lưu trữ trực tiếp cực nhanh (DAS, hoặc đôi khi được gọi là đĩa chia sẻ SCSI) chỉ bị trầy xước ở bề mặt tiềm năng của các thiết bị SAN. Trong thực tế, các thiết bị SAN thực sự tỏa sáng như là thành phần của một giải pháp có tính sẵn sàng cao toàn diện. Một cuộc thảo luận sâu về những lợi thế đó và cách tận dụng chúng nằm ngoài phạm vi của cột này, nhưng biết điều này sẽ giúp bạn hiểu rằng thiết kế của SAN, từ trên xuống dưới, là một trong những thiết bị dự phòng cao nhất mà bạn ' sẽ gặp trong bất kỳ trung tâm dữ liệu hiện đại.

Dự phòng và chuyển mạch sợi

Sự dư thừa này bắt đầu tại một trong hai điểm chấm dứt. Điểm kết thúc là Bao vây mảng ổ đĩa (và các ổ đĩa bên trong DAE đó) hoặc máy chủ được kết nối với Bộ điều hợp bus máy chủ sợi quang (HBA). Chúng tôi sẽ bắt đầu từ máy chủ được kết nối hoặc đích.

Máy chủ mục tiêu là máy chủ được kết nối với SAN bởi HBA. HBA là một bộ chuyển đổi HBA thông thường (nó khá giống với bộ điều hợp bus máy chủ PCI, EDI hoặc SCSI PCI) ngoại trừ nó có đầu nối Fiber thay vì đầu nối bằng đồng truyền thống, nhiều chân hoặc cạnh. Một điểm khác biệt quan trọng là thẻ HBA thường có hai cổng (HBA0 và HBA1) hoặc có hai thẻ HBA cổng đơn được cài đặt (một lần nữa, HBA0 và HBA1). Có thể còn nhiều hơn nữa, nhưng với mục đích của chúng tôi, chúng tôi sẽ giả sử rằng có hai thẻ HBA, 0 và 1, được cài đặt trong máy chủ mục tiêu của chúng tôi. Một sợi cáp được chạy từ các HBA này đến các thành phần tiếp theo trong kiến ​​trúc SAN: các công tắc sợi.

Công tắc sợi là công tắc hỗ trợ cáp thay vì cáp đồng. Vì mục đích dự phòng, sẽ có hai công tắc duy nhất cho mỗi SAN; ví dụ này, chúng tôi sẽ gọi những FC01 và FC02 này. Sợi chạy từ HBA0 trên máy chủ đích sẽ đi vào cổng 1 trên FC01; sợi chạy từ HBA1 sẽ chuyển đến FC02. Nếu HBA, cáp hoặc hoặc công tắc bị tắt, đường dẫn dự phòng vẫn thuộc về SAN.

Bước tiếp theo trong đường dẫn dữ liệu của chúng tôi là trung tâm của chính SAN. SAN thường có hai bộ xử lý lưu trữ dự phòng: Bộ xử lý lưu trữ A (SP-A) và Bộ xử lý lưu trữ B (SP-B). Mỗi Bộ xử lý lưu trữ có hai, các đầu nối sợi dự phòng: FE0 và FE1. Để giúp làm rõ, hãy nghĩ đến SP-A FE0 và FE1 (mỗi đầu nối riêng cho cáp quang) và SP-B FE0 và FE1 (cũng là một đầu nối riêng cho cáp quang). Mỗi bộ xử lý lưu trữ sẽ có 2 đầu nối sợi, với tổng cộng 4 cáp.

Tôi nghĩ có thể rõ ràng hơn nếu tôi đảo ngược cách chúng ta nhìn vào sự sụt giảm cáp trên đoạn này giữa các thành phần này. 4 giọt sợi được đề cập ở trên đi đến các công tắc sợi, FC01 và FC02. Bạn cũng có thể tham khảo sơ đồ trong Hình A. Hình A

SP-A FE0 dẫn đến một cổng trên công tắc FC02 và SP-A FE1 dẫn đến một cổng trên công tắc FC01 (những mục đích này được bật theo mục đích).

SP-B FE0 dẫn đến một cổng trên công tắc FC01 và SP-B FE1 dẫn đến một cổng trên công tắc FC02.

HBA0 trên máy chủ đích chuyển đến cổng 1 trên FC01 và HBA1 chuyển đến cổng 1 một FC02.

Bằng cách chuyển đổi (về cơ bản vượt qua), các đường dẫn từ hai cổng trên SP-A và hai cổng trên SB-B đến các công tắc và để mỗi HBA trên máy chủ đích được chuyển đến một công tắc chuyên dụng, bạn có mức rất cao dự phòng được xây dựng trong thiết kế này, mà bạn thường nghe gọi là "lưới" bởi các chuyên gia SAN. Trong ví dụ này, một cổng trên mỗi bộ xử lý dịch vụ (SP-A và SP-B) có thể không thành công, một công tắc có thể thất bại và HBA có thể thất bại và bạn vẫn sẽ giữ đường dẫn đến SAN từ máy chủ đích. Đây là sự dư thừa khá ấn tượng và đó là một trong những lý do tại sao lưu trữ SAN rất phổ biến như là một thành phần của một giải pháp có tính sẵn sàng cao.

Sự dư thừa này không kết thúc tại hai bộ xử lý lưu trữ. Các bộ xử lý lưu trữ kết nối bằng các backplanes dự phòng (thường bao gồm đồng tốc độ cao 2 hoặc 4 gigabit) tiếp tục nối lưới với các DAE riêng lẻ được đặt lần lượt với các ổ SCSI tốc độ cao, độ tin cậy cao. Đổi lại, các ổ đĩa trong DAE có thể được nhóm thành các cấu hình khác nhau ở các cấp RAID phổ biến khác nhau.

Bây giờ mọi thứ đã được kết nối, bạn cần khắc một số ổ đĩa của mình vào LUN và RAID, gán LUN cho máy chủ đích, định cấu hình máy chủ, định dạng ổ đĩa và bạn đang kinh doanh. Trên thực tế, không có gì lạ khi gặp SAN được cấu hình theo cách này. Nhưng, nếu bạn đã làm điều này, tất cả lưu lượng truy cập trên các thiết bị chuyển mạch của bạn sẽ được phát lưu lượng truy cập và, nếu bạn có nhiều máy chủ mục tiêu, nhiều LUN và nhiều lưu lượng truy cập, điều này có thể ảnh hưởng đáng kể đến tổng thể của bạn thông lượng.

Một lý do khiến các tổ chức chi một số tiền lớn cho SAN là vì tốc độ. Thật không may, giải pháp là một trong những khía cạnh phức tạp hơn của cấu hình SAN, đó có thể là lý do tại sao rất nhiều người bỏ qua nó hoàn toàn hoặc làm sai. Phân vùng được thực hiện tại công tắc; về cơ bản, bạn xác định các đường dẫn hoặc tuyến đường từ HBA thông qua bộ chuyển mạch và Bộ xử lý lưu trữ.

WWN

Tất cả mọi thứ tôi đã thảo luận cho đến nay đều nhằm mục đích tạo điều kiện thuận lợi cho hai điều: rất dư thừa và tương đối dễ phân vùng. Bây giờ bạn sẽ kết nối với công tắc của mình và đăng nhập. Các HBA được cài đặt trong máy chủ có một địa chỉ cổng duy nhất được gọi là World Wide Name (WWNs); Chúng trông giống như các địa chỉ MAC thực sự dài, đó chính là những gì chúng có.

Có những tiện ích sẽ cho bạn biết WWN bạn đang làm việc với cái gì, nhưng một phím tắt đơn giản và hiệu quả là để biết cổng nào trên công tắc chạy đến cổng nào trên thẻ HBA. Điều này chỉ có ý nghĩa chung. Tôi khuyên bạn nên dán nhãn cho mỗi đầu của cáp, ngay cả khi chạy ngắn. Khi bạn biết cổng trên công tắc, bạn có thể truy cập vào chính công tắc, tìm cổng đó và tìm WWN.

Nếu bạn kế thừa SAN và việc quản lý cáp không được thực hiện tốt, có lẽ bạn sẽ cần một tiện ích để xác định WWN nào được nối với cổng nào trên công tắc của bạn. Sẽ dễ dàng hơn nhiều để lên kế hoạch cẩn thận trước thời hạn và dán nhãn rõ ràng; đây là lý do tại sao chúng tôi đưa từng HBA vào Cổng 1 trên mỗi công tắc tương ứng. Nó khá đơn giản để mở công tắc của chúng tôi, theo dõi cổng 1 trở lại và xác định HBA WWN nào được kết nối với nó.

Khoanh vùng

Phân vùng là vấn đề tạo tên bí danh và xác định đường dẫn chính xác từ cổng HBA thông qua bộ chuyển mạch và đến DAEs. Một khái niệm quan trọng cần ghi nhớ ở đây là sự dư thừa. Bạn đã có hai công tắc, hai cổng HBA và hai bộ xử lý lưu trữ với 4 đường dẫn đến các công tắc. Bạn sẽ phải đăng nhập vào từng công tắc riêng lẻ và tạo một Bí danh duy nhất cho mỗi cổng HBA cho mỗi cổng trên cả hai bộ xử lý dịch vụ.

Nói chung, việc khoanh vùng đòi hỏi ba bước: (1) tạo Bí danh và thêm WWN chính xác vào đó, (2) tạo một vùng và thêm Bí danh chính xác vào đó và (3) tạo các phần này của cấu hình vùng và tạo chúng chủ động. Bạn sẽ thực hiện việc này hai lần cho mỗi lần chuyển đổi - một lần cho HBA0 và một lần cho HBA1 trên Bộ xử lý lưu trữ A và một lần cho HBA0 và một lần cho HBA1 trên Bộ xử lý lưu trữ B.

Khi thực hiện phân vùng, hãy nhớ rằng FE0 và FE1 được đảo ngược trên Bộ xử lý lưu trữ A và Bộ xử lý lưu trữ B. Về mặt khái niệm, đối với mỗi máy chủ, bạn nên hiểu rằng bạn sẽ đăng nhập vào công tắc đầu tiên, tạo bí danh, tạo vùng và thêm bí danh cho vùng một lần cho HBA0 và một lần nữa cho HBA1. Bạn sẽ lặp lại toàn bộ quá trình trên công tắc thứ hai, nhưng FE0 và FE1 sẽ được đảo ngược trên công tắc này. Khi các bước được hoàn thành, tất cả lưu lượng truy cập giữa máy chủ mục tiêu của chúng tôi và SAN sẽ được định tuyến và không được phát sóng, cắt giảm đáng kể các cuộc trò chuyện không cần thiết trên SAN của chúng tôi.

EMC khuyến nghị một quy ước đặt tên khá nghiêm ngặt để tạo tên bí danh. Lược đồ đặt tên được đề xuất là "Servername_HBA # _SANname_Storage Processor_Port". Ví dụ: mysrv01_hba0_mysan01inksA_FE0 là loại tên bí danh mà bạn sẽ thấy. Lợi ích của quy ước đặt tên này là hai lần: Nó rất mô tả về những gì bạn đang làm việc và bất kỳ ai khác quen thuộc với quy ước đặt tên này sẽ nhanh chóng có thể xác định những gì đang diễn ra với một bí danh cụ thể.

Phần kết luận

Hiểu được các khái niệm cơ bản này sẽ giúp bạn có một khởi đầu to lớn trong việc học cách quản trị, quản lý và triển khai các giải pháp SAN đúng cách; tuy nhiên, vẫn không có sự thay thế nào cho việc tham dự khóa đào tạo SAN chính thức do nhà cung cấp SAN của bạn cung cấp. Nếu tổ chức của bạn đang xem xét triển khai một giải pháp SAN, với số tiền mà họ sẽ đầu tư vào ngay cả một SAN cấp nhập cảnh, họ sẽ trả cổ tức đáng kinh ngạc để tập huấn vào giá mua.

Bản tin Máy chủ và Lưu trữ của TechRepublic, được gửi vào Thứ Hai và Thứ Tư, cung cấp các mẹo sẽ giúp bạn quản lý và tối ưu hóa trung tâm dữ liệu của mình.

© Copyright 2020 | mobilegn.com