전자 상거래, 생명 과학, 금융 서비스 및 마케팅과 같은 산업에서는 막대한 양의 데이터를 신속하게 습득하는 것이 중요합니다.
Machine Learning ( ML: 기계 학습)과 Artificial Intelligence (AI:인공지능) 은 대부분의 차세대 애플리케이션 특징이 되었습니다.
ML / AI 그리고 GPU의 비약적인 성능 향상으로 OpenShift가 GPU 하드웨어를 사용할 수 있도록 “Source To Image”워크 플로우를 결합하면 GPU 하드웨어를 빠르고 안전하게 액세스 할 수 있습니다 .
OpenShift 3.10에서 DevicePlugin과 함께 GPU를 사용하는 방법
이 블로그 포스트는 OpenShift 3.10에서 NVIDIA GPU를 사용하는 방법을 설명합니다.
환경 개요
- Red Hat Enterprise Linux 7.5, CentOS PostgreSQL 10 이미지
- OpenShift 컨테이너 플랫폼 3.10 AWS에서 실행되는 클러스터
- 컨테이너 런타임 : crio-1.10.5 또는 docker-1.13.1
- 컨테이너 도구 : podman-0.6.1, buildah-1.1, skopeo-0.1.30
- 마스터 노드 : m4.xlarge
- 인프라 노드 : m4.xlarge
- 컴퓨팅 노드 : p3.2xlarge ( NVIDIA Tesla V100 GPU 1 개 , 8vCPU 및 61GB RAM)
OpenShift 을 통한 Deep Learning 개발 환경의 장점
- 엔터프라이즈 컨테이너 오케스트레이션 환경 제공
Docker 와 Kubernetes 을 기본적으로 통합하고 SDN 과 관리도구를 제공하는 엔터프라이즈 환경 제공 - GPU 자원 멀티 테넌트 지원
최대 8 개의 NVIDIA GPU 워크로드에 맞춘 유연한 테넌트 마다 자원 분리와 액세스 제어를 구현, 보안 , 성능 모든 면에서 개발 효율이 비약적으로 향상됨 - 이 기종의 다양한 Deep Learning 프레임워크 지원
Deep Learning 프레임워크와 CUDA Toolkit 라이브러리를 컨테이너화하고, 여러 가지 프레임워크 개발 환경을 동일한 플랫폼에사 사용함
References & Related Links
- NVIDIA CUDA Installation Guide for Linux – https://docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html
- How to use GPUs with DevicePlugin in OpenShift 3.10 – https://blog.openshift.com/how-to-use-gpus-with-deviceplugin-in-openshift-3-10/
OpenShift 소개자료, 브로셔, 데이터시트 다운로드
오픈시프트에 대한 제품소개 자료 , 브로셔 그리고 다양한 데이터시트를 다운로드 받으세요.