Quantcast
Channel: Virtual Hive
Viewing all 465 articles
Browse latest View live

[Nutanix] Community Edition 이용방법 (0)

$
0
0

몇회에 걸쳐 Nutanix 커뮤니티 에디션 설치에 대해서 소개를 할까 합니다.


Nutanix가 생소한 분들도 계시리라 생각되므로 먼저 Nutanix가 무엇인지 간단히 소개를 하겠습니다.



Nutanix는 2011년 Nutanix사가 릴리스한 HCI(Hyper Converged Infrastructure) 솔루션입니다. HCI는 2012년경부터 주목을 받기시작한 솔루션이죠. 가상화 인프라는 가상머신의 가용성을 확보하기위해 거대한 컴퓨트 노드, 네트워크기기, 외부 스토리지, 백업기기  등 거대한 인프라를 필요로 하게되었죠. 이러한 인프라를 스케일-아웃하는데는 그만큼 시간도 필요했습니다. 예를들어 서버는 델, 네트워크는 시스코, 스토리지는 EMC 등 여러 벤더로 구성된 인프라의 경우 스토리지를 한 대 추가하고 싶어도 하드웨어의 세대간, 벤더 제품간의 호환성 등 사전에 조사도 해야되고 필요에 따라서는 검증도 해야되었죠. 


이러한 번거러움과 시간이 걸리는 것을 해결하는 것이 "통합형 인프라(Converged Infrastructure)"였습니다. 각 벤더간의 동작을 보증하는 서버, 스토리지, 네트워크 기기를 팩키지화한 것이죠. 예를들어 VCE의 'Vblock'나 NetApp의 'FlexPod'같은 솔루션입니다.

단지 문제는 거대한 구성은 다를바 없다는 겁니다. 아울러 비용도 만만치않았죠. 결국 "통합형 인프라"의 유행은 오지않았습니다.


이러한 "통합형 인프라"의 단점을 보완한 것이 "하이퍼 통합형 인프라"입니다. "하이퍼 통합형 인프라"는 거대한 "통합형 인프라"를 '소프트웨어 정의...'의 기술로 집약, 수십U의 하드웨어 구성을 2U로 압축해놓았습니다. 외부스토리지도 필요없죠. 노드를 추가하기만 하면 컴퓨팅 리소스와 스토리지의 용량, 퍼포먼스까지 확장되기때문에 신속하게 스케일-아웃도 가능합니다. 따라서 각 하드웨어 벤더들이 속속 HCI를 선보이고 있는 상황으로 Nutaix의 NX시리즈, 델의 XC시리즈(Nutanix의 OEM), HPE의 HC시리즈, 시스코의 HX시리즈, 레노버의 HX시리즈(Nutanix의 OEM), EMC+VMware의 VxRail, Simplivity의 OmniCube 등 춘추전국시대를 방불케하고 있죠. 

이러한 HCI에서 독보적인 존재가 바로 Nutaix입니다.


Nutanix는 2011년 등장한 "하이퍼 통합형 인프라"솔루션입니다. 2U의 x86 서버에 하이퍼바이저(vSphere나 Hyper-V)와 10Gb 네트워크를 표준탑재, 스토리지는 내장 SSD와 HDD를 이용하여 최소 3노드 클러스터 구성으로 기존 인프라 이상의 퍼포먼스와 확장, 데이터보호, 운용의 편리함을 무기로 폭넓은 업계에서 채용되고 있습니다.




백문이 불여일견이라고 아무리 포스팅을 읽어도 이해가 않될 경우는 직접 다뤄보는 수밖에 없죠. 흐흐


기본적으로 Nutanix는 어플라이언스 형태로 제공되기 때문에 평가판을 입수할 수는 없습니다. 대신 커뮤니티 에디션을 제공하고 있죠. 커뮤니티 에디션은 클러스터를 구성하는 오드가 4대로 제한되어있긴하지만 이용할 수 있는 기능은 상용판과 동일합니다.


Nutanix 커뮤니티 에디션을 검증하는 방법은 두 가지가 있습니다.

1.클라우드 서비스를 이용하는 방법

2.Nested(또는 물리서버)로 설치하는 방법


이번에는 클라우드 서비스를 이용하는 방법에 대해서 소개를 하겠습니다.

클라우드 서비스라고 해도 일반 클라우드 서비스의 경우는 Nested VM 이용을 허가하고 있지않기 때문에 설치가 불가능합니다만 Ravello Systems의 서비스는 가능합니다.

Ravello Systems는 주로 테스트나 랩환경을 클라우드(google, AWS) 서비스를 제공하는 프로바이더입니다. 최근에 Oracle에 매수되었습니다만... 


하여간 Ravello Systems는 Nutanix 커뮤니티 에디션을 간단히 전개할 수 있도록 템플릿도 준비되어있기 때문에 Nutanix가 어떤 솔루션인지 확인을 하고자 할 때는 유용한 방법입니다.


만약, 이 포스팅을 보시고 Nutanix 커뮤니티 에디션을 이용해보고자하는 분들은 일단 Nutanix 커뮤니티 에디션의 이용등록Ravello Systems의 어카운트를 작성해두시길 바랍니다. 


이용방법은 다음 회부터 소개하도록 하죠. 흐흐...




저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] Community Edition 이용방법 (1)

$
0
0

며칠전 간단하게나마 Nutanix에 대해서 소개를 했습니다.

이번에는 Ravello Systems의 클라우드 서비스를 이용한 Nutanix 커뮤니티 에디션 이용방법에 대해서 소개를 하겠습니다.


지난 회에 언급한대로 Nutanix 커뮤니티 에디션 이용등록Ravello Systems의 어카운트 작성이 끝난 것을 전제로 하겠습니다.


① Ravello Systems 서비스에 로그인합니다.


② 대시보드의 [Applications] 메뉴에서 [Create Application]을 선택하여 어플리케이션을 작성합니다.


③ 작성한 어플리케이션 화면에서 [Ravello Repo]를 선택합니다.


④ 리포지트리 리스트로부터 "Nutanix Community Edition"을 선택, [ADD TO LIBRARY]로 라이브러리에 추가를 합니다.


⑤ 1대의 가상머신이 추가되므로 [Save to Lib]을 선택, 라이브러리에 저장을 합니다.


⑥ [Start]를 클릭, 가상머신을 시작합니다.


⑦ 가상머신이 완전히 시작될 때까지 몇분 걸립니다. 완전히 시작되면 가상머신의 연푸른색의 시작 아이콘이 표시됩니다. 이로써 설치자체는 끝이므로 오른쪽 메뉴로부터 "Nic 1/1"를 선택하여 "글로벌 IP:9440"의 [Open]을 클릭합니다.

(클릭을 하면 웹관리 UI인 Prism이 표시됩니다만, Prism이 준비될 때까지 10분 이상 걸렸던 거 같습니다. 끈기있게 기다리세요. 흐흐)


⑧ Prism이 표시되면 다음의 어카운트와 패스워드로 접속을 합니다.

(어카운트명 : admin, 패스워드 : admin)  패스워드는 처음 로그인시 변경을 해야됩니다.


⑨ 커뮤니티 에디션 이용등록시 등록한 메일어드레스와 패스워드를 입력, 활성화를 합니다.


⑩ 로그인 후의 메인 대시보드입니다. 커뮤니티 에디션이므로 1노드로도 클러스터가 작성됩니다만, 상용판은 3노드 이상으로 클러스터를 작성하는 순서가 포함됩니다.


간단하죠? 흐흐 이것저것 클릭해보세요. :)








저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] vROps java.security.cert.CertificateException 에러

$
0
0

얼마전 vRealize Operations Manager를 고객사에 PoC로 설치를 한적 있었습니다. 설치후 vCenter 어댑터를 설정, 테스트 접속을 시도해보니 다음과 같은 에러가 발생, 접속이 되질않았습니다.

HTTP transport error: javax.net.ssl.SSLHandshakeException: java.security.cert.CertificateException: Certificates does not conform to algorithm constraints


■ 원인

고객사의 vCenter의 버전은 4.1이었습니다. 5.0 이전의 경우 SSL 증명서의 키-비트수가 512비트였기 때문에 SSL/TSL서버로의 접속이 실패했던 것입니다.  이 에러는 vRealize 특유의 에러가 아니라 JRE 6.0 이상의 보안에 관한 이슈입니다.


■ 해결방법

vRealize 의 이슈가 아니기 때문에 KB는 없었습니다만, vRealize Log Insight의 KB에 동일한 내용이 있었습니다. 해결방법으로써는 vRealize의  키-비트수를 512비트로 수정을 해줘야 합니다. 

키-비트수의 수정은 /usr/java/jre-vmware/lib/security/java.security 화일의 아래부분입니다.

Security.setProperty="jdk.certpath.disabledAlgorithms=MD2, RSA KeySize < 1024    <---- 1024비트를 512비트로 수정


위의 키-비트수를 수정후, vROps를 재시작해줍니다.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] Community Edition 이용방법 (2)

$
0
0

지난 회에서는 간단히 Nutanix 클러스터를 작성하는 방법을 소개했습니다만, 1노드로 구성했었죠.

이번에는 구성한 1노드에 새롭게 노드를 추가해보겠습니다.


① [Applicaiton] 메뉴로부터 라이브러리에 등록한 Nutanix VM 템플릿을 추가합니다. 추가를 하면 위의 화면처럼 "디자인 에러"가 표시됩니다. 이것은 동일한 VM 템플릿을 이용하였기에 발생하는 것입니다.

 

② "디자인 에러"를 해결합니다. 대부분(?) 아래의 3개의 에러가 발생할겁니다.

    • 가상머신명
    • 가상머신 IP 어드레스
    • CVM IP 어드레스
위의 설정을 변경해주면 "디자인 에러"는 사라디며 자동적으로 추가한 가상머신이 시작됩니다.


③ 추가한 가상머신이 시작되면 [콘솔]을 열어 Nutanix를 재구성해줘야 됩니다. 왜냐하면 순서 ②에서 가상머신과 CVM의 IP 어드레스를 변경했습니다만, 이것은 가상머신의 설정입니다. Nutanix의 설정은 그대로죠. 때문에 추가한 가상머신은 일단 Nutanix를 재구성해줘야 됩니다. 


재구성은 유저명 입력부분에 "install"을 입력후 실행합니다.


④ "키보드 레이아웃"을 선택, [Proceed]를 선택합니다.


⑤ 하이퍼바이저와 CVM의 IP 어드레스를 입력, EULA에 동의후 [Start]를 선택하면 설치가 시작됩니다.

※ Nutanix는 192.168.5.0/24 을 내부 네트워크로 이용을 하기 때문에 192.168.5.0/24는 이용할 수 없습니다.

※ EULA은 전부 스크롤다운 하지않으면 설치가 않됩니다. 흐흐 주의하세요.


⑥ 한대를 더 추가하죠. 순서 ①부터 ⑤까지 더 한번 진행하여 총 3대의 Nutanix를 준비합니다.

 

⑦ 3대가 준비되었다면 2대째, 3대째의 가상머신의 [Advanced Configuration]을 선택합니다.


⑧ 가상머신의 "biouUuid"를 각각 변경해줍니다. 이유는 순서 ①과 같습니다. (마지막 부분만 변경을 해줘도 됩니다)


⑨ 준비한 3대로 클러스터를 구성하겠습니다. 클러스터를 구성하기 전에 최초에 작성한 Nutanix로부터 클러스터를 삭제해야 됩니다. 상용버전이라면 Prism이나 ncli 명령어로 간단히 노드를 추가할 수 있습니다만, 커뮤니티 에디션의 경우, 않되더군요. 흐흐 따라서 일단 처음에 작성한 Nutanix로부터 클러스터를 삭제후, 3대의 클러스터를 작성하는 방법을 이용해야 됩니다.


⑩ 처음에 작성한 Nutanix으로 콘솔접속을 하여, CVM으로 SSH 접속을 합니다.

 콘솔 로그인 어카운트

 root

 nutanix/4u

 CVM 로그인 어카운트

 nutanix

 nutanix/4u


⑪ 다음 명령어로 클러스터를 정지합니다.

cluster stop


⑫ 다음 명령어로 클러스터를 삭제합니다.

cluster destroy


⑬ 다음 명령어로 클러스터를 작성합니다.

cluster -s 1대째 CVM IP,2대째 CVM IP,3대째 CVM IP create

각 CVM IP 어드레스 사이에 스페이스를 필요 없습니다


⑭ 정상적으로 클러스터가 작성되면 각 서비스가 시작된 것을 확인할 수 있습니다.

nutanix@NTNX-bb10a8de-A-CVM:10.1.1.11:~$ cluster status

2016-04-11 22:42:11 INFO cluster:1835 Executing action status on SVMs 10.1.1.11,10.1.1.21,10.1.1.31

The state of the cluster: start

Lockdown mode: Disabled


        CVM: 10.1.1.11 Up, ZeusLeader

                                Zeus   UP       [31236, 31266, 31267, 31273, 31309, 31324]

                           Scavenger   UP       [32006, 32035, 32036, 32147]

                       SSLTerminator   UP       [32200, 32239, 32240, 32370]

                      SecureFileSync   UP       [32235, 32279, 32280, 32369]

                           Acropolis   UP       [1717, 32295, 32353, 32354]

                              Medusa   UP       [368, 32645, 32683, 32684, 32685]

                  DynamicRingChanger   UP       [1466, 1519, 1520, 1567]

                              Pithos   UP       [1477, 1533, 1534, 1572]

                            Stargate   UP       [1503, 1557, 1558, 1559, 1560]

                             Cerebro   UP       [1603, 1679, 1680, 1705]

                             Chronos   UP       [1653, 1735, 1736, 1807]

                             Curator   UP       [1712, 1868, 1869, 1907]

                               Prism   UP       [1829, 1902, 1903, 1944, 2501, 2580]

                                 CIM   UP       [1886, 1976, 1977, 1988]

                        AlertManager   UP       [2140, 2207, 2208, 2238]

                            Arithmos   UP       [2225, 2305, 2306, 2332]

                                Snmp   UP       [2295, 2342, 2343, 2850]

                    SysStatCollector   UP       [2330, 2399, 2400, 2851, 4024]

                              Tunnel   UP       [2382, 2531, 2532]

                       ClusterHealth   UP       [2526, 2678, 2679, 2752, 2823, 2824, 3005, 3008]

                               Janus   UP       [2583, 2684, 2685]

                   NutanixGuestTools   UP       [2669, 2728, 2729, 2732]


        CVM: 10.1.1.21 Up

                                Zeus   UP       [9323, 9360, 9361, 9364, 9464, 9481]

                           Scavenger   UP       [10147, 10177, 10178, 10345]

                       SSLTerminator   UP       [10367, 10416, 10417, 10578]

                      SecureFileSync   UP       [10389, 10474, 10475, 10571]

                           Acropolis   UP       [10443, 10523, 10524, 11129]

                              Medusa   UP       [10755, 10788, 10789, 10796, 10911]

                  DynamicRingChanger   UP       [11511, 11552, 11553, 11607]

                              Pithos   UP       [11516, 11613, 11614, 11651]

                            Stargate   UP       [11532, 11585, 11586, 11658, 11661]

                             Cerebro   UP       [11575, 11648, 11649, 11756]

                             Chronos   UP       [11601, 11706, 11707, 11819]

                             Curator   UP       [11624, 11770, 11771, 11902]

                               Prism   UP       [11709, 11871, 11872, 11967, 12401]

                                 CIM   UP       [11809, 11970, 11971, 12019]

                        AlertManager   UP       [11883, 12035, 12036, 12091]

                            Arithmos   UP       [12060, 12180, 12181, 12236]

                                Snmp   UP       [12114, 12221, 12222, 12764]

                    SysStatCollector   UP       [12179, 12269, 12270, 12850, 13833]

                              Tunnel   UP       [12217, 12310, 12311]

                       ClusterHealth   UP       [12283, 12445, 12446, 12577, 12635, 12636, 13123, 13124]

                               Janus   UP       [12313, 12357, 12358]

                   NutanixGuestTools   UP       [12373, 12496, 12497, 12541]


        CVM: 10.1.1.31 Up

                                Zeus   UP       [9308, 9350, 9351, 9356, 9450, 9467]

                           Scavenger   UP       [10081, 10109, 10110, 10215]

                       SSLTerminator   UP       [10181, 10240, 10241, 10346]

                      SecureFileSync   UP       [10195, 10268, 10269, 10320]

                           Acropolis   UP       [10232, 10288, 10289, 12215]

                              Medusa   UP       [10416, 10446, 10447, 10489, 10662]

                  DynamicRingChanger   UP       [11547, 11615, 11618, 11667]

                              Pithos   UP       [11551, 11611, 11612, 11651]

                            Stargate   UP       [11565, 11632, 11633, 11639, 11640]

                             Cerebro   UP       [11597, 11695, 11696, 11852]

                             Chronos   UP       [11637, 11740, 11741, 11839]

                             Curator   UP       [11666, 11765, 11766, 11967]

                               Prism   UP       [11711, 11836, 11837, 11938, 12417]

                                 CIM   UP       [11758, 11905, 11906, 11971]

                        AlertManager   UP       [11834, 12032, 12033, 12163]

                            Arithmos   UP       [12135, 12205, 12206, 12286]

                                Snmp   UP       [12167, 12260, 12261, 12779]

                    SysStatCollector   UP       [12209, 12298, 12299, 12879]

                              Tunnel   UP       [12262, 12336, 12337]

                       ClusterHealth   UP       [12301, 12456, 12457, 12540, 12617, 12619, 13027, 13032]

                               Janus   UP       [12338, 12393, 12394]

                   NutanixGuestTools   UP       [12365, 12448, 12449, 12474]

2016-04-11 22:42:45 INFO cluster:1942 Success!


⑮ 다음 명령어로 외부 접속이 가능한 DNS 서버를 추가합니다. 커뮤니티 에디션을 활성화하기 위해서 입니다.

ncli cluster add-to-name-servers server=DNS 서버 IP 어드레스


⑯ Ravello의 [Application]메뉴로 돌아와, 가상머신을 하나 선택, 오른쪽 메뉴로부터 "Nic 1/1"를 선택하여 "글로벌 IP:9440"의 [Open]을 클릭합니다.


⑰ Prism이 표시되므로 다음의 어카운트와 패스워드로 접속을 합니다.

(어카운트명 : admin, 패스워드 : admin)  ※패스워드는 처음 로그인시 변경을 해야됩니다.


⑱ 커뮤니티 에디션 이용등록시 등록한 메일어드레스와 패스워드를 입력, 활성화를 합니다.


⑲ 로그인후 대시보드를 확인하면 3대로 구성된 것을 확인할 수 있습니다. 


여기까지가 노드를 추가하는 방법이었습니다.



다음에는 클라우드 서비를 이용하지않고 Nested로 구성하는 방법을 소개하겠습니다.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] NPP를 아시나요?

$
0
0

Nutanix의 인정자격 제도에 대해서 알고 계신가요? Nutanix도 다른 벤더처럼 인정자격이 있습니다.


■ Nutanix 인정 자격이란?

고객을 포함한 파트너를 위한 교육 프로그램의 일환으로 Nutanix의 솔루션을 이해하여 제안/도입이 가능한 것을 인정하는 제도입니다. 2015년 11월 현재, Nutanix 인정자격은 크게 세일스 부분과 엔지니어 부분으로 나뉘어져 있습니다. 세일스 부분은 Nutanix Sales Academy, 엔지니어 부분은 NPP, NSS, NPX가 있습니다.



NSA (Nutanix Sales Academy)는 다음의 4단계의 레벨로 구성되어있는 세일스/프리 세일스용 자격으로 VMware의 VSP(VMware Sales Professional)와 동등한 자격이 되지않을까 싶습니다.

    • NPSR (Nutanix Platform Sales Representative) – 레벨1
    • NPSS (Nutanix Platform Sales Specialist) – 레벨2
    • NPSC (Nutanix Platform Sales Champion) – 레벨3
    • NPSX (Nutanix Platform Sales eXpert Certification) – 레벨4


NPSC와 NPSX는 사실, Nutanix 판매 실적이の인정 조건의 하나이므로 조건을 실무경험이 없다면 어렵습니다만, NPSR와 NPSS는 온라인 드레이닝만으로도 취득이 가능합니다.


NPSE (Nutanix Platform Sales Engineer)

:세일스 관련은 물론 제품의 데모나 레뷰까지 대응이 가능한 세일스 엔지니어용 자격입니다.


NPP (Nutanix Platform Professional)

:이른바 마이크로소프트의 MCP나 VMware의 VCP 레벨의 자격이라고 할 수 있습니다. Nutanix Platform의 도입부터 간단한 트러블슈팅까지 대응할 수 있는 엔지니어용 자격입니다.


NSS (Nutanix Support Specialist)

:Nutanix Platform에서 발생할 수 있는 드러블을 해결할 수 있는 능력을 인정하는 서포트 스페셜리스트의 자격입니다. 원래는 인정 서포트 파트너에게만 공개되었던 자격이었습니다만, 현재는 이용고객도 취득이 가능하게 되었습니다.


NPX (Nutanix Platform eXpert)

:Nutanix 인증 자격중 최상위의 자격이라고 할 수 있습니다. VMware의 VCDX와 동일, 자신이 설계한 솔루션의 문서로 응모, 문서의 레뷰가 통과후 심사원에게 프레젠(영어로)을 해야합니다. 기술과 영어실력을 겸비해야되죠. 흐흐



■ Nutanix 인정 자격을 따기 위해서는?

Nutanix의 인정자격은 기본적으로 무상으로 취득이 가능합니다.(일부 자격은 제외)

물론 유상의 클래스룸 트레이닝도 있습니다만, 보통은 셀프페이스의 온라인 트레이닝을 수강후, 시험에 합격하면 자격을 취득하게 됩니다.



 

온라인 트레이닝과 시험은 다음의 Nutanix의 education 포털인 nu.school에 등록, 수강후 시험을 치기만 하면 됩니다.

NSA

NPSE, NPP (시험이 의외로 어렵습니다. 각오하세요. 흐흐)

 

"자격을 갖고 있다=Nutanix expert로 뭐든지 알고있다"는 물론 아닙니다. 또한 필수도 아니죠. 

하지만, Hyper Converged Infrastructure이 개념을 포함한 Nutanix의 기술에 대해서 배울 수 있는 좋은 기회인 것은 틀림없습니다. 흥미가 있는 분들은 도전해 보심이 어떨런지요?


여담입니다만, NPP의 최연소 취득자는 8살의 소년이라고 합니다. Σ(゚д゚lll)



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] Community Edition 이용방법 (3)

$
0
0

지난 번까지는 클라우드 서비스를 통해 커뮤니티 에디션을 이용하는 방법을 소개했습니다. 이번에는 Nested로 구성을 하는 방법에 대해서 소개를 하겠습니다. 기존의 랩환경이나 놀고있는 회사 서버를 이용하시면 되겠습니다. 흐흐


Nested로 구성을 할 경우, Nutanix 1대당 아래와 같은 스펙이 필요합니다.

    • vCPU : 4 core 이상
    • 메모리:16GB 이상
    • 스토리지:200GB 이상(HOT-티어용으로 이용), 500GB 이상(COLD-티어용으로 이용※ 씬프로비저닝도 가능


설치를 하기 전에 사전에 해야될 작업이 있습니다.

  1. 우선 Nutanix 커뮤니티 에디션 화일을 여기서 다운로드 합니다.
  2. 다운로드한 화일을 7zip 등으로 압축을 풉니다. 압축을 풀면 .img화일이 하나 있을테니 화일명을 [ce-flat.vmdk]로 변경을 합니다.
  3. Joep Piscaer씨의 사이트로 부터 디스크 설명화일을 다운로드하여  [ce.vmdk]로 저장을 합니다.
  4. [ce-flat.vmdk] 화일과 [ce.vmdk] 화일을 데이터스토어에 업로드합니다.


여기까지가 준비작업입니다. 


ESXi 환경에 Nested로 구성을 하는 방법은 웹에서 검색을 해보시면 여러 방법이 있는 것을 알 수 있습니다. 전 Michael Webster씨의 페이지를 참고로 했습니다.


시작하도록 하죠.

vSphere Web Client로 부터 가상머신을 새롭게 작성합니다. 


① ESXi 버전의 호환성은 "ESXi 5.5 이상"을 선택합니다.


② 설치하는 게스트 OS의 종류와 버전은 "Linux"와 "CentOS 4/5/6/7"를 지정합니다.


③ CPU 구성에서는 "4 vCPU"로 변경, "Expose hardware assisted virtualization to the guest OS"에 체크를 합니다. 이로써 Nested로 하이퍼바이저를 구성할 수 있게 됩니다.


④ 메모리는 "16GB"이상을 할당합니다. 16GB를 할당해도 Nutanix의 CVM이 12GB를 사용합니다. 흐흐 따라서 Nutanix 설치후 그위에서 가상머신을 돌리실 생각이시라면 16GB 이상이 좋겠네요.


⑤ SCSI 컨트롤러의 종류를 준가상화 타입인 "VMware Paravirtual"로 변경합니다.


⑥ 일단 기존의 하드디스크를 삭제합니다.


⑦ 네트워크 어댑터의 종류를 "E1000"로 변경합니다.


⑧ 새로운 디바이스로 "Existing Hard Disk"를 추가하여, 사전에 데이터스토어에 업로드해둔 [ce.vmdk]를 선택합니다. 


⑨ 아울러 추가한 컨트롤러는 "SCSI(0:0)"가 할당된 것을 확인합니다.


⑩ Hot-티어용 SSD로 이용을 하기 위해 "New Hard Disk"를 추가하여 "200GB"이상의 용량을 할당합니다. 컨트롤러는 "SCSI(0:1)"가 할당된 것을 확인합니다.


⑪ Cold-티어용 HDD로 이용을 하기 위해 "New Hard Disk"를 추가하여 "500GB"이상의 용량을 할당합니다. 컨트롤러는 "SCSI(0:2)"가 할당된 것을 확인합니다.


⑫ [VM Options]->[Advanced]->[Configuration Parameters]를 선택합니다.


⑬ 파라메터명을 "scsi0:1.virtualSSD", 값을 "1"로 지정을 해줍니다. 이로써 "SCSI(0:1)"의 드라이브는 SSD의 태그가 붙어 SSD로 인식을 하게됩니다.


⑭ 이외에는 평상시 가상머신을 작성하는 것과 동일하므로 생략하겠습니다. 가상머신을 작성했다면 전원을 넣습니다.


⑮ 가상머신이 정상적으로 시작되면 위와같은 화면이 표시되므로 "install"을 입력, 설치를 시작합니다.


⑯ 키보드 레이아웃을 설정하시고...


⑰ 하이퍼바이저, CVM의 IP 어드레스를 입력, EULA에 동의후 "Start"~ 10분정도로 설치가 끝납니다.


⑱ 순서 부터 17를 반복하여 전 두 대를 더 만들었습니다.


⑲ 3대가 준비되었다면 클러스터를 만들어 보겠습니다. 3대중 한 대의 CVM에 SSH접속을 하여 다음의 명령어를 실행합니다.

cluster -s 1대째 CVM IP,2대째 CVM IP,3대째 CVM IP create


⑳ 다음 명령어로 외부 접속이 가능한 DNS 서버를 추가합니다. 커뮤니티 에디션을 활성화하기 위해서 입니다.

ncli cluster add-to-name-servers server=DNS 서버 IP 어드레스


㉑ 다음 명령어로 클러스터의 이름을 지정해보죠.

ncli cluster edit-params new-name=클러스터명


㉒ 이번에는 클러스터의 IP 어드레스를 지정해보죠.

ncli cluster set-external-ip-address external-ip-address=클러스터 IP 어드레스


㉓ 이로써 기본적인 구성은 끝입니다. 클러스터의 IP 어드레스로 접속을 하여 admin의 패스워드, 커뮤니티 에디션의 활성화를 마치면 위와같은 대시보드를 확인할 수 있습니다.


Nested인 관계로 물리서버처럼 퍼포먼스를 기대하는 것은 어렵습니다만, 기능 자체는 상용판과 차이가 없으므로 Nutanix를 검증하는데는 전혀 문제가 없습니다. 새로운 버전이 공개될 때마다 커뮤니티 에디션도 버전이 바뀌므로 새롭게 추가된 기능도 바로바로 검증이 가능하리라 생각됩니다.


놀고있는 서버가 있는 분들은 꼭 검증해보세요. :)



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치(0)

$
0
0

작년, 함부로 발을 들여서는 않되는 세계에 발을 넣었습니다. VMware NSX라는 세계에... :)


아시다시피 NSX는 VMware의 네트워크 가상화 솔루션으로 2012년 매수한 Nicira의 NVP와 기존의 vCNS(vCloud Networking and Security)를 통합한 제품이죠. 


NSX의 특징을 간단히 정리해보면 다음과 같습니다.

    • L3 네트워크에 L2 네트워크를 오버레이시 확장
    • 기존의 물리 네트워크를 변경이나 하드웨어에 의존하지 않고 네트워크의 구성이 가능
    • NSX Manager에 의한 가상네트워크의 통합관리
    • 물리 네트워크로의 트래픽을 최소화
    • 물리 네트워크와 분리되어있기 때문에 보안 향상


쉽게말하자면 기존의 물리 네트워크 변경할 필요없이 네트워크를 구성, 중앙관리할 수 있다는 겁니다. 


이런 NSX는 관리플레인, 컨트롤플레인, 데이터플레인으로 구성되어 각각 NSX의 관리, 논리 네트워크의 관리, 통신처리의 기능을 갖춘 컴포넌트가 포함되어있습니다.


NSX를 구성하는 컴포넌트는 다음과 같습니다.


NSX Manager

・NSX컴포넌트를 관리, 관리자에게 GUI/API를 제공합니다.


NSX Controller

・일반적으로 3대로 구성되어, 논리 스위치, 논리 라우터를 제어합니다.

Logical Switch (논리 스위치, LS)

・하드웨어 구성에에 관계없이 L2 스위칭을 구성합니다. LS는 VXLAN을 이용, L3 네트워크상에 L2 네트워크상를 오버레이합니다.


Distributed Logical Router(분산 논리 라우터, DLR)

・ESXi 커널상에서 동작, East-West 트래픽을 물리 네트워크에 경유하지않고 처리합니다.


Edge Service Gateway(ESG)

・방화벽, NAT, DHCP, VPN, 로드 밸런싱등 L3부터 L7까지의 네트워크 서비스를 제공합니다.


Distributed Firewall (분산 방화벽, DFW)

・ESXi 커널상에서 동작, 가상머신, vNIC, 호스트, 클러스터 등의 오브젝트 단위로 방화벽을 구성합니다.


Service Composer

・Palo Alto나 Trend Micro 등 써드파티 솔루션을 통합, NSX를 통해 관리, 이용합니다.


virtual Distributed Switch (vDS)

・NSX를 도입하기 위해서는 분산 가상 스위치가 필요합니다.


Virtual eXtensible LAN (VXLAN)

・L3 네트워크상에 논리 L2 네트워크를 오버레이하기위한 프로토콜입니다. VLAN처럼 VXLAN별로 유니크한 ID(VNI)를 부여합니다.


간단히 NSX에 대해서 설명했습니다. 각 컴포넌트의 기능이나 고려사항은 설치방법을 소개할 때 언급하도록 하겠습니다.


다음부터는 NSX의 설치, 기본 구성부터 ESG의 로드 밸런싱을 이용한 Horizon View의 설정까지 몇회에 걸쳐 소개를 할까 합니다.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치(1)

$
0
0

이번 회에는 NSX Manager를 설치, vCenter와의 접속하는 방법에 대해서 소개를 하겠습니다.


NSX Manager의 역할은 다음과 같습니다.

    • NSX 관리 UI와 API의 제공
    • ESXi 커널에 VXLAN, 분산 라우팅, 분산 방화벽 모듈을 설치
    • NSX Controller의 전개
    • 논리 네트워크와 서비스를 구성
    • ESXi 호스트간의 메시지 버스를 구성
    • NSX 컴포넌트 관련 증명서 구성


역할을 보시면 알 수 있듯이 NSX의 코어 컴포넌트중 하나입니다만 NSX 구성후 시스템 장애로 인해 NSX Manager가 정지해도 NSX 환경의 통신에는 문제가 없습니다.


도입에 앞서... NSX를 설치하기 위해서는 다음의 전제조건이 필요합니다.

    • vSphere 5.5 이상 (NSX 6.2 도입시)
    • MTU가 1600 이상으로 설정된 L2 네트워크
    • 분산가상 스위치
    • NTP에 의한 시각동기
    • ESXi의 DNS 등록


1. NSX Manager의 설치와 vCenter와의 접속

NSX 환경을 설치하기 위한 최초의 작업은 NSX Manager을 설치하는 것입니다. NSX Manager는 가상 어플라이언스로 제공되고 있기때문에 vSphere 인프라에 임포트하기만 하면 됩니다.


① NSX Manager 임포트시 어플라이언스의 로그인 어카운트(admin)의 패스워드도 설정을 합니다.


② NSX Manager를 임포트한 뒤 어플라이언스를 개시, 웹브라우저로부터 접속을 합니다.


③ 대시보드를 통해 "NSX Management Service"가 시작된 것을 확인할 수 있습니다.


④ [Manager] 탭의 [General] 메뉴로부터 NTP와 Syslog등을 설정합니다.



⑤ [NSX Management Service] 메뉴를 선택, Lookup Service를 설정합니다. 참고로 Lookup Service의 주소는 다음의 명령어로 확인이 가능합니다.(vCenter Server 6.0 Tidbits Part 2: What is my SSO Domain Name & Site Name? 참고)

PS C:\Program Files\VMware\vCenter Server\vmafdd> .\vmafd-cli.exe get-ls-location --server-name localhost

https://vm-db.labo.local/lookupservice/sdk     <--- Lookup Service의 주소



⑥ vCenter Server 정보를 입력, vCenter에 접속을 합니다.


⑦ Lookup Service, vCenter Server의 상태가 'Connected'이면 정상입니다.


⑧ vSphere Web Client에 접속을 하면 인벤토리에 "Networking & Security"아이콘가 추가된 것을 확인할 수 있습니다.


⑨ "Networking & Security"을 클릭하면 NSX의 메뉴를 확인할 수 있습니다.


이것으로 NSX Manager의 설치는 완료입니다.


다음에는 NSX Controller의 전개와 NSX 모듈 설치에 대해서 소개를 하겠습니다.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] vCloud Air Japan 리전의 철수

$
0
0

며칠 전 개인적으로 충격적인 뉴스를 들었습니다.

VMware의 퍼블릭 클라우드 서비스인 vCloud Air의 일본 리전으로부터 철수를 한다는 소식이었습니다.


vCloud Air는 전세계적으로 11개소의 리전으로 구성되어있으며 아시아 지역에서는 일본과 호주에 각각 1개의 리전이 있죠.

퍼블릭 클라우드라고는 해도 자국내의 데이터센터에 데이터를 보존하고 싶어하는 일본 기업을 타겟으로 적극적인 판촉활동을 벌였지만, 아마존의 AWS와 마이크로소프트의 Azure, IBM의 Softlayer 등의 경쟁 서비스에 밀려 생각보다 선전하지 못한것 같네요.


vCloud Air 기반으로 클라우드 서비스를 제공하고 있는 파트너 서비스와 Horizon Air를 제외한 모든 vCloud Air 서비스는 2017년 3월 31일로 일본 리전에서의 제공을 종료한다고 발표했습니다.

    • vCloud Air Virtual Private Cloud
    • vCloud Air Dedicated Cloud
    • vCloud Air Disaster Recovery
    • vCloud Air Virtual Private Cloud OnDemand


음... 솔직히 일방적인 느낌입니다.

VMware사로써는 신속한 판단과 결정일지 모르겠습니다만, 시간과 공을 들여 조사를 하고 검증을 한 후에 vCloud Air로 이행을 한 기업으로써는 또다시 인력과 비용을 들여야되니 어지간히 부담이 클 것입니다.

이러한 이용기업의 이행에 대한 지원이 미흡한 것도 안타까울 뿐이네요.


결국, 간단히 이용을 할 수 있는 퍼블릭 클라우드의 맹점이 아닐까 싶습니다. 온프레미스의 비용절감이나 하드웨어의 장애 리스크 이외에도 클라우드 서비스 프로바이더의 서비스 철수까지 염두에 둬야하나요... 흐흐 


저같으면 그냥 온프레미스로 유지하겠습니다...



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] Community Edition 이용방법 (4)

$
0
0

이번에는 소프트웨어의 업그레이드에 대해서 소개를 하겠습니다. 이용하는 환경은 이전에 소개한 Nested의 환경입니다.


Nutanix의 경우, 소프트웨어의 업그레이드를 간단히 실시할 수 있습니다. 정말로 간단합니다.


① Prism에 접속, [관리] 메뉴로부터 [Upgrade Software]를 선택합니다.


② 현재의 소프트웨어 버전을 확인하여 그보다 새로운 버전이 있을 경우, 위의 그림처럼 표시가 됩니다.


③ 새로운 버전을 다운로드하고 있습니다.


④ 다운로드가 완료되면 업그레이드를 실시합니다. 업그레이드의 사전체크도 가능합니다만, 전 바로 [Upgrade Now]를 실행, 소프트웨어의 업그레이드를 실행했습니다.


⑤ 다운로드한 소프트웨어를 통해 업그레이드가 진행됩니다. 업그레이드 상태도 확인을 할 수 있습니다.


⑥ 업그레이드는 자동적으로 이루어집니다. 때문에 CVM이나 하이퍼바이저의 재시작도 순차적으로 이루어지기 때문에 가상머신의 정지는 발생하지 않습니다.


⑦ 업그레이드가 완료되어, 최신버전이 되었을 경우는 '이용할 업그레이드 버전이 없다'는 메시지가 표시되죠.


간단하죠? 흐흐

다음에는 가상머신을 작성하는 방법에 대해서 소개를 하겠습니다.






저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치 (2)

$
0
0

지난 회에서 NSX Manager를 디플로이하여 vCenter와의 접속을 했습니다.

이번에는 본격적으로 NSX의 환경을 설정하도록 하죠.


아... 늦은 감이 있습니다만, NSX의 경우, 평가판은 NSX의 트레이닝을 받으셔야 제공받을 수 있습니다. VMware의 evaluation 사이트로부터 NSX 관련 화일은 다운로드를 받을 수 없죠. 그렇다고 검증을 할 수 없는건 아닙니다. Hands-on Labs를 이용하면 됩니다. 2016년 4월 현재 제공되고 있는 NSX 관련 핸즈-온 랩은 4코스가 있습니다. 

    • HOL-SDC-1603 VMware NSX Introduction (한국어도 있습니다)
    • HOL-SDC-1620 OpenStack with VMware vSphere and NSX
    • HOL-SDC-1624 VMware NSX and the vRealize Suite
    • HOL-SDC-1625 VMware NSX Advanced


스크린숏을 잘못해서 지워버려 일부 일본어 환경의 스크린숏을 이용했습니다. 양해를 바랍니다.

① 가장 먼저 해야될 부분은 IP풀을 작성하는 것입니다. NSX Controller나 VXLAN 구성시 필요한 IP 어드레스를 IP풀에서 자동적으로 할당하기 때문이죠. vSphere Web Client의 [Home] -> [Networking & Security]를 선택, 왼쪽 메뉴 하단의 "NSX Manager"를 선택합니다.


② 디플로이한 NSX Manager를 선택, [Manage] -> [Grouping Objects]를 선택, 서브 메뉴중 "IP Pools"를 클릭합니다.


③ 다음의 정보를 입력, IP풀을 작성합니다. IP풀은 NSX Controller 전개시와 VXLAN 구성시에 필요하므로 최소 2개를 작성합니다.

 IP풀명

 필수

 디폴트 게이트웨이

 필수

 서브넷 사이즈

 필수

 1st DNS

 옵션

 2nd DNS

 옵션

 DNS 접두사

 옵션

 IP 어드레스

 필수


④ NSX Controller를 전개하겠습니다. NSX Controller는 다음의 역할을 갖고 있습니다.

    • 논리 네트워크와 VXLAN 정보를 ESXi 호스트에 제공
    • VXLAN 정보(VTEP, MAC, ARP 테이블)를 관리
    • 분산 논리 라우터를 관리
    • VXLAN 네트워크의 ARP 브로트캐스트 트래픽의 억제


아울러 NSX Controller는 클러스터 구성에 의한 부하분산과 리던던시를 확보하고 있습니다.

왼쪽 메뉴의 "Installation"을 선택하여 [Management] -> [NSX Controller nodes]를 추가합니다.


⑤ 다음의 정보를 입력, NSX Controller를 작성합니다.

 접속할 NSX Manager

필수

 전개할 데이터센터

필수 

 전개할 리소스 풀

필수 

 전개할 데이터스토어

필수 

 전개할 호스트 

옵션 

 전개할 폴더

옵션 

 이용 네트워크 포트그룹

필수 

 이용 IP풀

필수 

 관리자 패스워드

필수 


⑦ NSX Controller는 3대 구성의 클러스터를 추천하고 있으므로 전부 3대를 전개합니다. 참고로 전개는 1대씩 실시하세요.


⑧ 이번에는 각 ESXi 호스트에 NSX 모듈을 설치하도록 하겠습니다. [Host Preperation] -> [Actions]로부터 "install"를 선택합니다.


⑨ 모듈이 설치됩니다. 설치하는 모듈은 vsfwd, netcpa로 역할은 다음과 같습니다.

 vsfwd

 NSX Controller Cluster와 통신, 가상머신의 네트워크 정보를 NSX Controller에 전송합니다.

 netcpa

 NSX Manager와 통신, Audit 로그, 분산방화벽의 집계정보를 송신, NSX Manager로부터 분산 논리 라우터나 ESG, 분산방화벽의 정책을 수신합니다.


⑩ 정상적으로 모듈이 설치되면 모듈의 버전와 유효화 상태를 확인할 수 있습니다.


⑪ 이번에는 논리 네트워크를 정의하도록 하겠습니다. NSX에서는 물리 네트워크에 영향을 끼치지 않도록 논리 네트워크를 구성합니다. 논리 네트워크는 VXLAN을 이용하여 실현하며 구성된 논리 네트워크는 L2 부터 L7 레벨에 이르기까지 폭넓은 네트워크 서비스를 제공합니다. 

논리 네트워크는 논리 네트워크를 정의하여 논리 스위치를 작성함으로써 구성이 완료됩니다. 이번에는 논리 네트워크의 정의에 대해서 소개를 하겠습니다.

위에서 논리 네트워크는 VXLAN을 이용하여 실현한다고 했습니다. VXLAN은 Virtual eXtensible Local Area Network의 약어로 L3 네트워크상에 논리적으로 L2 네트워크를 구성하기 위한 터널링 프로토콜입니다. VLAN과는 별도로 유니크한 VNI(VXLAN Network Identifier)를 할당할 필요가 있습니다. 


⑫ [Logical Network Preperation] -> [Segment ID]를 선택하여 "Edit"를 클릭하여 VNI의 범위를 작성합니다. VNI는 5000번부터 부여를 할 수 있습니다.


⑬ VNI의 범위를 작성했다면 VXLAN을 구성하도록 하겠습니다. [Host Preperation]으로부터 NSX Component Installation on Hosts로부터 "Unconfigure"를 클릭하여 VXLAN을 구성합니다.


⑭ 다음의 정보를 입력, VXLAN을 작성합니다.

 VXLAN를 구성할 스위치

 필수

 VXLAN구성 네트워크의 VLAN

 필수 (VLAN이 없을 경우 4095)

 MTU

 필수

 VXLAN구성용 vmkernel IP 어드레스

 필수

 VXLAN구성 네트워크 어댑터의 티밍정책

 필수

 VTEP

 필수


지난 회에 전제조건으로 MTU를 1600 이상을 지원해야된다고 했습니다만, 이유는 바로 VXLAN 때문입니다. 논리 네트워크는 VXLAN을 이용하여  L3 네트워크상에 논리적으로 L2 네트워크를 구성한다고 했습니다. 논리 네트워크의 프레임을  L3 네트워크로 내보낼 때 VXLAN의 헤더를 추가하기 때문에 일반적인 MTU 1500 + VXLAN의 헤더 사이즈가 필요하기 때문이죠. 이  VXLAN의 헤더가 덧붙여져 L3 네트워크로 나가는 출구가 VTEP (VXLAN Tunnel End Point)이며 VTEP은 vmkernel로써 구성을 합니다. 따라서 위의 설정정보가 전부 필요한 셈이죠. 흐흐


⑮ 정상적으로 VXLAN이 구성된 것을 확인합니다.


⑯ 자아, 서서히 마지막 단계입니다. 이번에는 Transport Zone을 구성합니다. 트랜스포트 존은 두 개이상의 클러스터 사이를 논리 네트워크로 확장가능한 영역을 말합니다. 일반적인 예로써 관리 클러스터와 VDI 클러스터를 하나의 트랜스포트 존에 포함시켜 동일한 논리 네트워크가 이용가능토록 하죠. 

[Logical Network Preperation] -> [Transport Zones]를 선택하여 Transport Zone을 작성합니다.


⑰ 트랜스포트 존의 이름과 복제모드, 포함시킬 클러스터를 선택합니다.

복제모드에 대해서는 나중에 다루도록 하죠.

검증환경은 클러스터가 하나였네요. :)


⑱ 트랜스포트 존이 작성된 것을 확인할 수 있습니다.


이번 회는 여기까지입니다. 흐흐


다음에는 논리 스위치를 작성하는 방법에 대해서 소개를 하도록 하죠.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Nutanix] Community Edition 이용방법 (5)

$
0
0

이번에는 가상머신에 대해서 입니다.


Nutanix 상용판은 마이크로소프트의 Hyper-V, VMware의 ESXi, 그리고 KVM 기반의 Acropolis가 있습니다. 상용판의 경우 VMware의 ESXi가 많으리라 생각됩니다만 커뮤니티 에디션의 경우는 Acropolis이기 때문에 가상머신을 작성하는 방법을 간단히 소개를 하겠습니다. (사실 저도 KVM에 대해서는 잘 모르거든요. 흐흐)


① Prism에 로그인후 [관리] 메뉴로부터 "Image Configuration"을 선택합니다.

가상머신을 작성하기위해 OS의 iso 이미지를 먼저 업로드해둘 필요가 있기 때문이죠.  


② "Upload Image"를 클릭합니다.

③ "Image Type"과 저장할 "Container"를 선택하여, iso화일을 업로드합니다.


④ 정상적으로 iso화일이 업로드되어 state가 "ACTIVE"인 것을 확인후 마법사를 닫습니다.


⑤ 이번에는 "Network Configuration"을 선택합니다. 가상머신에 할당할 가상네트워크를 미리 작성해두는거죠. 


⑥ "Create Network"를 선택합니다.


⑦ 가상 네트워크명과 VLAN을 설정합니다. (VLAN 설정은 필수입니다. 만약 가상머신에 할당할 가상 네트워크에 VLAN을 설정할 필요가 없다면 디폴트 VLAN인 '0'을 설정합니다)


⑧ 가상 네트워크가 작성된 것을 확인합니다. 이로써 가상머신을 작성할 준비가 되었습니다.


⑨ 메인메뉴의 [VM]을 선택, "Create VM"을 클릭합니다.


⑩ 가상머신명과 CPU, 메모리를 설정합니다.


⑪ 가상 디스크를 추가합니다. Nutanix의 경우는 자동적으로 가상 디스크가 추가되지않습니다.


⑫ CDROM의 "편집"을 선택하여 업로드해둔 OS의 iso화일을 지정합니다.


⑬ 가상 네트워크도 지정을 합니다.


⑭ 모든 설정이 되었다면 "Save"를 클릭, 가상머신을 작성합니다.


⑮ 태스크로부터 가상머신이 작성된 것을 확인할 수 있습니다.


⑯ 작성된 가상머신을 선택, "Power On"을 클릭하여 가상머신을 시작합니다.


⑰ 가상머신을 시작했다면 "Launch Console"을 클릭, 콘솔 화면을 엽니다.


⑱ 콘솔을 통해 가상머신을 작성하면 됩니다.  이번 포스팅에서는 가상머신으로 CentOS를 예로 들었습니다만 Windows OS의 가상머신을 작성할 경우는 virtio SCSI 드라이버를 설치할 필요가 있습니다.  Windows의 경우는 다음에 소개를 하도록 하죠.


간단한 내용이었습니다만, 여기까지가 Nutanix 커뮤니티 에디션에서 가상머신을 작성하는 방법이었습니다.





저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[Microsoft] Storage Space Direct에 대해서

$
0
0

2년전 Windows Server 2012 R2의 Storage Space에 대해서 소개를 한 적이 있었습니다.

Storage Space는 로컬 디스크를 그룹화하여 단일 스토리지로 이용하는 기능입니다. SSD와 HDD가 혼재되어있을 경우도 구성이 가능하며 특히, SSD를 캐시 디스크로 이용하기 때문에 높은 퍼포먼스를 기대할 수 있었죠.

과거 포스팅에서도 예를들었듯이 VSAN과 동일한 개념입니다만, 결정적으로 다른 점이 있죠. 로컬 디스크를 그룹화하여도 공유 스토리지로 이용을 할 수 없다는 점이었습니다. 공유 스토리지로써 Storage Space를 이용할 경우는 SAS 프로토콜의 스토리지 어레이가 필요했습니다.


때문에 실환경에서 이용하기에는 어려움이 있었습니다.


이러한 문제를 해결하기 위해 Windows Server 2016에서는 Storage Space Direct 기능이 추가되었습니다. Storage Space Direct는 Failover Cluster 노드의 로컬 디스크를 그룹화하여 "공유 스토리지 영역"으로 이용을 할 수 있는 기능입니다.

출처 : Storage Spaces Direct in Windows Server 2016 Technical Preview


위의 그림에서 보는대로 Failover Cluster 노드의 로컬 디스크를 SMB 3.0 로 연결하여 클러스터 공유 볼륨(CSV)로써 이용을 할 수 있습니다.


이런 Storage Space Direct가 며칠 전 공개된 테크니컬 프리뷰 5에서 업데이트되어진 내용이 공개되었습니다.

Automatic Configuration : 유효한 디스크를 검출, 자동적으로 단일의 Storage Space Direct가 작성됩니다.

Managing Storage Spaces Direct using Virtual Machine Manager : Storage Space Direct가 구성된 클러스터를 SCVMM에서 관리할 수 있게 됩니다. 

Chassis and Rack Fault Tolerance : 이른바 VSAN의 fault domain 과 동일한 개념입니다. 랙사이 (또는 체이스사이)의 장애에 대응할 수 있게 됩니다.

Deployments with 3 Servers : 소규모의 3대로 Storage Space Direct를 구성할 수 있게 됩니다. 

Deployments with NVMe, SSD and HDD : NVMe를 지원하게 되어, NVMe+HDD, NVMe+SSD, NVMe+SSD+HDD, SSD+SSD 등 다양한 Storage Spaces Direct의 구성이 가능하게 됩니다.


솔직히 말하자면 경쟁 벤더의 기술보다 한걸음 뒤쳐진 느낌입니다만, 최근의 마이크로소프트사의 추진력을 보자면 이러한 뒤쳐짐도 그리멀지 않은 미래에 따라잡지 않을까 싶네요.


 



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치 (3)

$
0
0

지난 번까지 NSX를 이용하기 위한 환경을 준비했습니다만, 본격적으로 네트워크 가상화를 실현해보겠습니다.

이번에는 논리 스위치를 작성하는 방법을 소개하겠습니다.


3. 논리 스위치(Logical Switch)의 구성

① [Home] -> [Networking & Security]를 선택, 왼쪽 메뉴로부터 "논리 스위치"를 선택후, "새로운 논리 스위치"를 클릭합니다.


② 작성할 논리 스위치 이름과 다음의 정보를 설정후 [OK]를 클릭, 논리 스위치를 작성합니다.

 전송존(Transport Zone)

 지난 회의 순서  에서 작성한 전송존을 선택합니다.

 복제모드(Replication Mode)

 유니캐스트 모드(우선은 유니캐스트 모드를 선택하세요)


③ 논리 스위치는 분산가상 스위치의 분산 포트 그룹으로 작성되므로 작성한 논리 스위치는 [네트워크]로부터 확인이 가능합니다.


④ 작성한 논리 스위치를 선택, "가상머신의 추가"를 클릭합니다.


⑤ 가상 스위치로부터 논리 스위치로 이동할 가상머신을 선택합니다.


⑥ 이동할 가상머신의 가상 NIC을 선택합니다.


⑦ 이동될 가상머신의 가상 NIC이 논리 스위치에 연결된 것을 확인후 "종료"를 클릭합니다.


⑧ 위의 순서를 반복, 필요한 논리 스위치를 작성합니다. 참고로 Horizon View를 NSX 환경에 통합하기 위헤서는 가상 데스크톱용 네트워크, Connection Server용 네트워크, Security Server용 네트워크가 최소한 필요하겠네요.


여기까지가 논리 스위치를 작성하여 가상머신을 논리 네트워크로 이동하는 방법을 소개했습니다.

다음에는 논리 네트워크를 논리 라우터로 라우팅하는 방법에 대해서 소개를 하겠습니다.


저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] vSphere Client(C# Client)의 은퇴

$
0
0

드디어 vSphere Client(C# Client)의 은퇴가 결정되었습니다.

Goodbye vSphere Client for Windows (C#) – Hello HTML5


오늘 발표된 공식 블로그에서 차기 버전의 vSphere에는 C# Client가 포함되지 않을 것이라고 했습니다. 

C# Client을 대신할 클라이언트로는 현재 VMware Labs에서 테크니컬 프리뷰판으로 버전을 거듭하고 있는 vSphere HTML5 Web Client가 될 것이라고 합니다.


Web Client가 등장했을 때부터 C# Client가 사라질 것이라는 소문은 존재했었죠. 다만 C# Client를 대신할(?) Web Client의 평판이 그다지 좋질않았기 때문에 C# Client가 연명되었던거라고 생각합니다.


테크니컬 프리뷰판을 검증해 본 결과 Web Client보다 성능이 많이 개선된 느낌이었습니다. 특히나 반응속도는 비교할 수 없을 정도로 빨랐습니다. 


vSphere HTML5 Web Client의 등장은 개인적으로 대환영입니다. (플래시가 없다는 점만으로도 충분히 만족합니다)



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] Windows 7, Windows Server 2008 R2 SP1의 롤업 업데이트

$
0
0

5월말 오랜만에 공개된 Windows 7, Windows Server 2008 R2 SP1의 롤업 업데이트가 릴리스되었습니다만, 이 롤업 업데이트를 적용했을 경우, 가상머신에 네트워크 이슈가 발생할 수 있다고 합니다.


RUSH POST: Microsoft Convenience Update and VMware VMXNet3 Incompatibilities


원인은 공개된 롤업 업데이트의 알려진 이슈 1로 가상 nic을 vmxnet3 타입으로 이용할 경우, 롤업 업데이트 적용후 네트워크 어댑터가 미사용 상태가 되어버린다고 합니다.


Convenience rollup update for Windows 7 SP1 and Windows Server 2008 R2 SP1


현재 VMware사에서는 조사중으로 조만간 수정패치 등의 대응방법이 공개되리라 생각되므로 적절한 대응방법이 공개될 때까지 롤업 업데이트는 적용하지 마시길 바랍니다.



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] vsanDatastore에 가상 어플라이언스를 임포트할 경우

$
0
0

흥미있는 포스팅이 있었습니다.


Heads Up: OVF/OVA always deployed as Thick on VSAN when using vSphere Web Client


VSAN은 5개의 룰로 구성된 스토리지 정책을 가상머신 단위로 적용을 하므로써 데이터를 보호합니다. 5개의 룰은 

    • Number of Failures To Tolerate
    • Number of Disk Stripes Per Object
    • Flash Read Cache Reservation
    • Object Space Reservation
    • Force Provisioning

로 일반적으로 "Number of Failures To Tolerate"와 "Number of Disk Stripes Per Object"를 설정하면 되죠.(솔직히 말이죠...)

아울러 VSAN은 thin provisioning입니다.  


그런데 위의 포스팅에서 밝혀진 것은 vsanDatastore에 가상 어플라이언스를 임포트할 경우는 thick provisioning으로 전개가 된다는 것입니다. 흐흐 예를들어 "Object Space Reservation"를 0%로 설정을 한 스토리지 정책을 적용해도 thick provisioning으로 전개된다는군요. 그것도 Web Client에서 전개를 했을 경우만!이라는 조건이라네요. :)


원인은 조사중이라니 조만간 정보가 공개되리라 생각됩니다만,  주의하세요.(솔직히 주의를 할 정도로 영향이 있다고는 생각하지 않습니다만...)


워크어라운드로써 일단 thick provisioning으로 전개되었어도 스토리지 정책을 재적용하므로써 thin provisioning이 된다고 하니 신경쓰이는 분들은 스토리지 정책을 재적용해보세요...



참고로 "Object Space Reservation"는 가상머신을 thick provisioning으로 전개한다는 의미가 아니고 오브젝트(vmdk 등)의 용량을 100% 확보해둔다는 의미입니다. 





저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치 (4)

$
0
0

※ 화면캡쳐를 로컬환경에 복사하지않은패로 검증환경을 재구성했습니다. --;;;

부랴부랴 검증환경을 다시 준비해서 화면을 캡쳐했습니다. 때문에 이전까지의 화면과 다른 점, 양해바랍니다. 




지난 회에는 논리 스위치를 작성, 논리 네트워크를 만드는 방법을 소개했습니다.


현재의 환경을 그림으로 나타내면 이런 구성이 되겠네요.



이번 회에는 라우터를 작성하여 각 논리 네트워크간 통신이 되도록 해보겠습니다.


NSX에서는 2종류의 라우터가 존재합니다.

    • 분산 논리 라우터 (Distributed Logical Router, DLR)
    • 분산 논리 라우터 컨트롤 VM (Distributed Logical Router Control VM, DLR Control VM)


분산 논리 라우터 (Distributed Logical Router, DLR)

:DLR은 각 ESXi에 모듈로 설치됩니다. ESXi별로 라우터가 한 대씩 붙어있는 이미지죠. 물론 라우터니 L3 레벨의 라우팅 전문입니다. 논리 스위치가 연결되어 DLR 자신도 상위 네트워크(업링크)에 접속을 함으로써 외부 네트워크와의 통신을 가능하게 하죠. DLR은 주로 이스트<->웨스트(가상 인프라안의 네트워크) 사이의 트래픽을 최적화합니다.


분산 논리 라우터 컨트롤 VM (Distributed Logical Router Control VM, DLR Control VM)

:DLR Control VM은 정확히 말하자면 라우터가 아닙니다. NSX의 데이터 플레인에 존재하는 것이 아니라 컨트롤 플레인에 존재합니다. 따라서 네트워크의 라우팅도 하지않습니다. 그러면 이녀석의 임무는 뭐냐...?면 라우터사이의 라우팅 프로토콜의 세션을 확립하여 OSPF나 BGP같은 동적 라우팅 프로토콜을 근접 라우터(네이버)와 연결하는게 임무죠. 또한 NSX Manager로부터 DLR의 논리 인터페이스 정보를 전달받으며 라우팅 정보가 업데이트되면 NSX Controller에 전달도 하죠. 하여간 필요한 녀석입니다. 흐흐


NSX Controller에 의해 최초의 DLR Control VM이 작성된 후, 각 ESXi에 DLR을 작성됩니다.


4. 분산 논리 라우터(Distributed Logical Router)의 구성


① [Home] -> [Networking & Security]를 선택, 왼쪽 메뉴로부터 "NSX Edge"를 선택후, "추가"를 클릭합니다.


② "설치 타입"은 [Logical (Distributed) Router]를 선택, 논리 라우터명과 "Edge 어플라이언스의 전개"를 선택합니다.


③ 논리 라우터의 콘솔접속 관리자명과 패스워드를 설정합니다. 패스워드는 12문자 이상에 대문자/소문자/특수문자를 포함해야됩니다. 또한 관리를 위해 "SSH 접근의 유효화"도 선택을 합니다.



④ 논리 라우터를 전개할 클러스터, 데이터스토어 등을 지정합니다. 


⑤ 논리 라우터의 인터페이스를 설정합니다. 인터페이스로써는 상위 네트워크에 접속을 하는 'Uplink'와 라우팅을 하는 논리 네트워크인 'Internal'의 두 종류가 있습니다. 'Uplink'의 경우는 일반적으로 NSX Manager와 NSX Controller와 통신이 가능한 vDS의 분산 포트 그룹을 지정합니다. 



⑥ 'Uplink'로 접속할 네트워크를 선택, 인터페이스의 IP 어드레스를 설정합니다.

여기서 말하는 인터페이스란 논리 라우터에 생성되는 논리 인터페이스(LIF)를 의미합니다.



⑦ 이번에는 논리 네트워크간 통신의 'Internal'으로 접속할 네트워크를 선택, 인터페이스의 IP 어드레스를 설정합니다. 여기서 말하는 인터페이스란 논리 라우터에 생성되는 논리 인터페이스(LIF)를 의미하며 각 논리 네트워크의 디폴트 게이트웨이가 됩니다.


⑧ 필요한 네트워크수만큼 논리 인터페이스를 추가합니다.(여기서는 전부 3개의 LIF를 추가했습니다)


⑨ 논리 라우터의 디폴트 게이트웨이의 설정화면입니다만, 이번 소개에서는 체크를 하지않은 상태로 진행을 합니다.


⑩ 작성된 논리 라우터를 더블클릭합니다.


⑪ 논리 라우터의 구성을 보면, HA가 구성되지않은 상태입니다. (HA 구성은 별도 소개를 하겠습니다)


⑫ 인터페이스에서는 필요에 따라 인터페이스를 추가, 삭제, 수정할 수 있습니다.


⑬ 분산 논리 라우터까지 구성을 했다면 대충 이런 구성이 되어있을겁니다. (가상데스크톱용 논리 네트워크가 빠졌었네요. 흐흐 나중에 추가해두겠습니다)



⑭ 통신이 되는지 확인을 해보죠. 

 논리 네크워크

 네크워크 세그멘트 

 LIF 어드레스 

 접속서버용 네트워크(to-CS-NW) 

 10.10.20.0/24

 10.10.20.254 

 보안서버용 네트워크(to-SS-NW) 

 10.10.30.0/24 

 10.10.30.254


위의 논리 네트워크에는 각각 아래의 서버가 있습니다.

 서버명

 IP 어드레스 

  논리 네트워크

 vsv-cs01

 10.10.20.5 

 접속서버용 네트워크(to-CS-NW)

 vsv-ss01

 10.10.30.5 

 보안서버용 네트워크(to-SS-NW) 


상호 ping을 실행하면 정상적으로 응답을 합니다.


⑮ 이번에는 인터넷에 ping을 실행해보겠습니다. 구글의 퍼블릭 DNS인 8.8.8.8에 대해 ping을 실행했습니다만, 각 논리 네트워크의 LIF(디폴트 게이트웨이)로부터 지정 네트워크에 도달할 수 없다는 에러 메시지가 돌아옵니다. 이것은 상위 네트워크(이른바 노스-사우스 트래픽)과의 통신을 가능토록 라우팅이 설정되어있지 않기 때문입니다. VPN이나 로드 밸런싱 등의 네트워크 서비스를 이용하지 않을 경우는 논리 라우터에 라우팅을 설정하므로써 상위 네트워크와 통신을 가능토록 할 수 있습니다. 


제 경우는 로드 밸런싱을 이용하고자 하므로 일단 라우팅은 설정하지않겠습니다.



여기까지가 분산 논리 라우터를 구성하는 방법이었습니다.

분산 논리 라우터까지 구성을 했다면 대충 이런 구성이 되어있을겁니다.


다음에는 ESG를 구성하는 방법에 대해서 소개를 하겠습니다.


흐음... 갑자기 바빠져서 오랜만에 포스팅을 하는거 같네요... 에고고..

 



저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치 (5)

$
0
0

이번에는 NSX에서 각종 네트워크 서비스를 제공하는 ESG(Edge Service Gateway)를 도입하는 방법을 소개하겠습니다.

이 ESG를 도입, 설정하므로써 논리 네트워크상의 가상머신이 외부 네트워크와 통신이 가능하게 됩니다.


우선 ESG에 대해서 간단히 설명을 하죠.

ESG는 주로 노스-사우스 트래픽을 컨트롤하는 가상 어플라이언스로 L3 부터 L7에 이르기까지 폭넓은 레이어에 걸쳐 네트워크 서비스를 제공합니다. 제공하는 네트워크 서비스는 다음과 같습니다.

    • 방화벽
    • NAT
    • 라우팅
    • 로드 밸런싱
    • VPN(L2, SSL, IPSec)
    • L2 브릿징
    • DHCP, DHCP 릴레이
    • DNS 릴레이

각 서비스에 대해서는 시간이 되면 조금씩 설명을 하도록 하겠습니다. :)



5. 엣지 서비스 게이트웨이(Edge Service Gateway)의 구성



① [Home] -> [Networking & Security]를 선택, 왼쪽 메뉴로부터 "NSX Edge"를 선택후, "추가"를 클릭합니다.


 "설치 타입"은 [Edge Services Gateway]를 선택, ESG명과 "Edge 어플라이언스의 전개"를 선택합니다.


③ 논리 라우터의 콘솔접속 관리자명과 패스워드를 설정합니다. 패스워드는 12문자 이상에 대문자/소문자/특수문자를 포함해야됩니다. 또한 관리를 위해 "SSH 접근의 유효화"도 선택을 합니다.



④ ESG의 사이즈와 전개할 클러스터, 데이터스토어 등을 지정합니다. 사이즈에 대해서입니다만, 솔직히 문서를 봐도 명확한 사이즈 결정지침이 없고 이용하는 서비스에 의해 결정하는 것 같습니다. 예를들어 SSL-VPN을 이용할 경우는 Large 사이즈, 로드 밸런싱을 이용할 경우는 Quad Large 사이즈 등입니다. 아울러 사이즈에 따라서 ESG에 할당되는 리소스는 다음과 같습니다.

 사이즈

 vCPU

 메모리

 Compact

 1

 512 MB

 Large

 2

 1 GB

 Quad Large

 4

 1 GB

 Extra Large

 6

 8 GB


⑤ ESG의 인터페이스를 설정합니다. 인터페이스로써는 상위 네트워크에 접속을 하는 'Uplink'와 라우팅(또는 DLR과 접속하는)을 하는 논리 네트워크인 'Internal'의 두 종류가 있습니다. 'Uplink'의 경우는 일반적으로 NSX Manager와 NSX Controller와 통신이 가능한 vDS의 분산 포트 그룹을 지정합니다.



 'Uplink'로 접속할 네트워크를 선택, 인터페이스의 IP 어드레스를 설정합니다.



⑦ 이번에는 DLR간 통신의 'Internal'으로 접속할 네트워크를 선택, 인터페이스의 IP 어드레스를 설정합니다. 여기서 말하는 인터페이스란 ESG에 생성되는 논리 인터페이스(LIF)를 의미하며 DLR의 Next Hop이 됩니다.


⑧ 최소로 Uplink용 인터페이스, DLR 접속용 Internal 인터페이스를 작성했습니다. 참고로 ESG에서 작성할 수 있는 인터페이스는 최대 10개입니다.(인터페이스이외에 서브인터페이스로 최대 200개까지 작성이 가능합니다)


⑨ 상위 물리 네트워크와 통신을 하기위해 디폴트 게이트웨이를 설정합니다.


⑩ 방화벽 정책을 '유효화'하여 디폴트 트래픽 정책을 "수락"합니다. 방화벽 정책을 '유효화'하지않을 경우 디폴트 트래픽 정책을 "거부"가 되므로 주의하세요.


⑪ 모든 설정이 틀림없는 것을 확인한 뒤에 ESG의 작성을 개시합니다.


⑫ 작성된 ESG를 더블클릭합니다.


⑬ ESG의 구성을 보면, 이용이 가능한 서비스를 확인할 수 있습니다. 아울러 HA의 구성 상태도 확인을 할 수 있습니다.(아직 HA를 구성하지않은 상태죠)


⑭ 인터페이스에서는 작성한 인터페이스의 정보를 확인할 수 있으며 필요에 따라 인터페이스를 추가, 삭제, 수정할 수 있습니다.


⑮ 이번에는 라우팅을 설정하겠습니다. 이 라우팅을 설정하므로써 논리 네트워크의 가상머신으로부터 외부 네트워크와 통신을 가능하게 합니다. ESG의 "Routing" -> "Static Routes"를 선택, "추가"를 클릭합니다.


⑯ 라우팅을 설정합니다. 여기서는 논리 네트워크에 대한 Next Hop을 DLR의 Uplink로 설정을 했습니다.


⑰ 설정내용을 등록(공개)합니다.  이로써 논리 네트워크 10.10.xx.xx로의 incoming 통신이 가능하게 됩니다.



⑱ 이번에는 논리 네트워크 10.10.xx.xx로부터 outgoing 통신을 가능하도록 하겠습니다. 이 설정은 DLR에서 실시합니다. 지난 [4. 분산 논리 라우터(Distributed Logical Router)의 구성]회에서 DLR 작성시, 디폴트 게이트웨이를 설정하지 않았습니다. 때문에 먼저 DLR의 디폴트 게이트웨이를 설정합니다. DLR의 디폴트 게이트웨이로는 ESG의 Internal 인터페이스를 설정합니다.


⑲ 설정내용을 등록(공개)합니다.  이로써 논리 네트워크 10.10.xx.xx 이외의 트래픽은 ESG로 경로가 지정됩니다.


⑳ 지난지난 [4. 분산 논리 라우터(Distributed Logical Router)의 구성]회에서 외부(구글 퍼블릭 DNS)로의 통신이 되지않았던 논리 네트워크상의 가상머신으로부터 외부 네트워크의 서버로부터 ping이 응답되어지는 것을 확인할 수 있습니다.


ESG까지 도입하면 아래와 같은 구성이 되겠네요.




다음에는 가상 데스크톱을 전개할 경우 필요한 DHCP 릴레이에 대해서 소개를 하겠습니다.





저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License

[VMware] NSX 설치 (6)

$
0
0

지난 회까지로 기본적인 NSX가 구성되었습니다.

이번 회부터는 Horizon View와 관련한 부분을 소개하겠습니다.

(Horizon View와 관련되었다고는 했습니다만 반드시는 아닙니다. 흐흐)


지난 회까지 논리 네트워크를 가상 데크스톱용, 접속서버용, 보안서버용 등 역할에 따라 작성을 했습니다. Horizon View의 풀을 전개할 수 있을까요? 아직 아닙니다. 가상 데스크톱 풀 작성시 DHCP 서버로부터 IP 어드레스를 할당받을 수 없기 때문입니다. 아시다시피 DHCP의 요구는 브로드캐스트죠. 브로드캐스트는 라우터를 경우할 수 없습니다. 때문에 라우터에 DHCP 릴레이 설정을 해줘야 됩니다. 이것은 NSX에서도 마찬가지입니다.


NSX의 경우 NSX Edge(DLR, ESG의 통칭입니다) 에서 DHCP 서비스를 제공하고 있습니다만 DLR과 ESG의 DHCP 서비스는 조금 다릅니다.


우선 아래의 그림은 DLR의 DHCP 서비스입니다.  DHCP 릴레이 서비스가 보이실 겁니다. DLR의 경우는 DHCP 릴레이만을 이용할 수 있습니다.


아래의 그림은 ESG의 DHCP 서비스입니다. ESG의 경우는 DHCP IP 어드레스 풀을 작성할 수 있다는 겁니다. DHCP 서버를 준비하지 않아도 되죠.


제 검증환경에는 별도로 DHCP 서버가 존재합니다. 때문에 DLR에서의 DHCP 릴레이의 설정방법에 대해서 소개를 하겠습니다.


6. DHCP 릴레이 서비스의 구성


① DLR을 선택합니다.


② [DHCP Relay] 로부터 원격의 DHCP 서버를 지정합니다. DHCP 서버를 지정하는 방법은 "IP 셋", "IP 어드레스", "도메인 이름"이렇게 3가지 방법이 있습니다. 가장 손쉬운 방법은 DHCP 서버의 IP 어드레스를 지정하는거죠. :) 


③ 이번에는 DHCP 의 요구를 릴레이할 인터페이스를 지정합니다. 가상 데스크톱을 위한 것이니 가상 데스크톱용 논리 네트워크 인터페이스를 지정, IP 어드레스를 선택합니다.


④ 설정내용을 등록(공개)합니다. 이로써 설정은 끝입니다. 간단하죠?


⑤ 제대로 설정이 되어있는지 확인을 해보죠. 가상 데스크톱용 논리 네트워크상에 존재하는 가상머신의 네트워크 설정을 DHCP로부터 취득하도록 변경, 정상적으로 IP 어드레스를 취득했는지 확인을 할 수 있습니다. DHCP 서버에서도 정상적으로 IP 어드레스를 할당한 것을 확인할 수 있습니다. 



이번에는 간단하게 DHCP 릴레이 설정에 대해서 소개를 했습니다. 접속서버, 보안서버가 각각 논리 네트워크에 존재하여 가상 데스크톱의 DHCP 서버로부터 IP 어드레스를 할당받을 수 있다면 물리 네트워크와 똑같이 가상 데스크톱의 풀을 작성할 수 있을 겁니다.


다음에는 NSX Edge의 HA 구성에 대해서 소개를 하도록 하겠습니다.





저작자 표시비영리변경 금지
크리에이티브 커먼즈 라이선스
Creative Commons License
Viewing all 465 articles
Browse latest View live