정보성) cuda11.4 와 맞는 torch version 2.0.1
·
꿀팁 분석 환경 설정/Python
cuda 11.4일 때 pytorch 2.0 대를 쓰고 싶어서 인터넷에서 찾아봤고 공유드린다. 바로 2.0.1이다(2024.02.25 기준) (python 3.10) pip install torch==2.0.1 그렇다면 어떻게 찾을 수 있을까? - 모르겠다..ㅎ 일단 재 설치되는 기준으로 보면 아래와 같은 것들이 설치가 되기는 했다. pip list | grep cuda cuda 11.7 관련한 것들을 자동으로 설치하는 것 같다. Collecting nvidia-cuda-nvrtc-cu11==11.7.99 (from torch==2.0.1) Downloading nvidia_cuda_nvrtc_cu11-11.7.99-2-py3-none-manylinux1_x86_64.whl.metadata (1.5 kB..
RL) 로봇 개발 플랫폼 Issac 자료 찾아보기
·
관심있는 주제/RL
nivida에서 issac gym에 대한 소개가 있어서 자료만 찾아봤다. 결국 말하고자하는 것은 기존 물리환경을 다 gpu에서 돌게 했다는 것이 최근에 강조하는 것 같고, 그래서 자기네 gpu사서 로봇 연구해 약간 이런 느낌으로 들린다. 2017 11 1 https://www.google.com/url?sa=t&source=web&rct=j&url=http://on-demand.gputechconf.com/gtcdc/2017/presentation/dc7125-nvidia-isaac-virtual-environments-for-robot-ai.pdf&ved=2ahUKEwiHntXbzefyAhWSK5QKHZW4CwwQFnoECBYQAQ&usg=AOvVaw1xCtISu5qJhHfN43107m-b&cshid=..
Ubuntu) GPU 확인 방법
·
꿀팁 분석 환경 설정/Linux
목차 GPU 사용량 보기 nvidia-smi 모니터링 방법 (1) # 0.5초 간격으로 모니터링 watch -n 0.5 nvidia-smi 모니터링 방법 (2) # 1초마다 갱신(개인적으로 방법 1을 선호) nvidia-smi -l 1 GPU를 사용 중인 PID 정보 얻기 ps -up `nvidia-smi -q -x | grep pid | sed -e 's///g' -e 's///g' -e 's/^[[:space:]]*//'` 파이썬) GPU 정보, device별, pid 별로 얻기 pip install pynvml pip install beautifulsoup4 pip install lxml import pynvml , pandas as pd pynvml.nvmlInit() result = [] for..
[Jupyter] GPU 사용량 주기적으로 체크하는 코드
·
분석 Python/구현 및 자료
import GPUtil from threading import Thread import time class Monitor(Thread): def __init__(self, delay): super(Monitor, self).__init__() self.stopped = False self.delay = delay # Time between calls to GPUtil self.start() def run(self): while not self.stopped: GPUtil.showUtilization() time.sleep(self.delay) def stop(self): self.stopped = True monitor = Monitor(10) 멈추는 것은 STOP을 해주면 됨 monitor.stop()
TensorFlow gpu cuda 설치 공식 문서 (Windows / Ubuntu 16.04 ,18.04)
·
분석 Python/Tensorflow
Ubuntu 16.04 (CUDA 10) # Add NVIDIA package repositories # Add HTTPS support for apt-key sudo apt-get install gnupg-curl wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x86_64/cuda-repo-ubuntu1604_10.0.130-1_amd64.deb sudo dpkg -i cuda-repo-ubuntu1604_10.0.130-1_amd64.deb sudo apt-key adv --fetch-keys https://developer.download.nvidia.com/compute/cuda/repos/ubuntu1604/x8..
Colaboratory와 tensorboard와 tensorflow를 활용한 GAN 구현물
·
분석 Python/Tensorflow
Colab도 있으니 원하시는 분은 댓글 달아주세요 GPU를 제공하는 갓 구글님께서 만들어주신 Colab으로 간단한 Original GAN 구현물입니다. 추가) 학습된 weight를 구글 드라이브에서 가져오는 것도 했습니다! 추가) GPU 설정하는 것도 넣어놨습니다. 추가) Tensorboard도 코드도 넣어놨습니다. 수정이 안되면 복사해서 사용하세요!
tensorflow eager gpu 할당 쓴만큼만 잡게하기.
·
분석 Python/Tensorflow
그냥 돌리게 되면 한 노트북에서 쓰지도 않는 GPU를 다 잡아버린다. 아래 코드를 돌리게 되면 TEST 한다면서 GPU를 다 잡아서 다른 Notebook에서 할당이 안된다. tf.test.is_gpu_available() 그래서 아래와 같은 방법으로 진행하면 된다. 그냥 Session으로 할 때 gpu_option = tf.GPUOptions(allow_growth=True) config = tf.ConfigProto(log_device_placement=False , allow_soft_placement=True, gpu_options=gpu_option) sess = tf.Session(config=config) Eager로 할 때 import tensorflow as tf gpu_option = t..

AI 도구

AI 도구 사이드 패널

아래 AI 서비스 중 하나를 선택하여 블로그를 보면서 동시에 사용해보세요.

API 키를 입력하세요API 키를 저장하려면 저장 버튼을 클릭하세요API 키가 저장되었습니다
API 키를 입력하세요API 키를 저장하려면 저장 버튼을 클릭하세요API 키가 저장되었습니다
API 키를 입력하세요API 키를 저장하려면 저장 버튼을 클릭하세요API 키가 저장되었습니다
URL과 모델을 입력하세요설정을 저장하려면 저장 버튼을 클릭하세요설정이 저장되었습니다