前言
总结一下Linux服务器使用的常见操作,深度学习向。
SSH密码登录
ssh account@ip
ssh -p port account@ip
查看进程
ps aux
,又称BSD方式,其中a表示显示所有用户的进程(show processes for all users);u表示显示用户(display the process’s user/owner);x表示显示无控制终端的进程(also show processes not attached to a terminal)。
ps -ef
,又称System V方式,e效果与a相同,f表示用ASCII字符显示树状结构,表达程序间的相互关系(ASCII art forest)。
查看用户abc运行的进程:ps -u abc
显示System V格式下java进程:ps -ef|grep java
BSD在grep java下获取title:ps aux|head -1;ps aux|grep java
System V在grep java下获取title:ps -ef|head -1;ps -ef|grep java
top工具:top
查看目前登入系统的用户信息
w
查看网卡信息
ifconfig
ip addr show
查看CPU
查看主频信息:ls cpu
查看详细信息:cat /proc/cpuinfo
查看内存信息
以MB为单位:free -m
以GB为单位:free -g
查看系统版本
查看系统版本:cat /etc/issue
查看硬盘空间大小
查看文件系统磁盘使用情况统计:df -h
查看指定目录所属磁盘情况:df -h 目录名
Nvidia显卡配置
查看显卡驱动版本、CUDA版本和显卡信息:nvidia-smi
每隔半秒刷新一次GPU信息:watch -n 0.5 nvidia-smi
查看CUDA Runtime版本:nvcc -V
TensorFlow查看显卡是否可用:1
2
3import tensorflow as tf
print(tf.config.list_physical_devices('GPU'))
Pytorch查看显卡是否可用:1
2
3
4
5
6
7
8import torch
print(torch.cuda.is_available())
ngpu = 1
device = torch.device("cuda:0" if (torch.cuda.is_available() and ngpu > 0) else "cpu")
print(device)
print(torch.cuda.get_device_name(0))
显卡驱动下载:https://www.nvidia.com/download/index.aspx?lang=en-us
Conda
查看环境信息:conda info -envs
创建环境:conda create --name ENVNAME python=3.x pkg1 pkg2 ...
删除环境:conda env remove -n ENVNAME
查看通道:conda config --show
添加通道(中科大镜像):conda config --add channels https://mirrors.ustc.edu.cn/anaconda/pkgs/free/
删除通道:conda config --remove channels ...
GNU Screen
安装screen:apt/yum install screen
版本查看:screen -v
查看已创建的screen终端:screenv -ls
,同名终端要用PID区分,输出格式为PID.Name
;screen有两种状态Attached
(活跃)和Detached
(挂起)。
创建一个叫Hello的虚拟终端(可创建同名):screen -S Hello
创建(回到)一个叫Hello的虚拟终端(不可创建同名,如果存在则直接进入该终端):screen -R Hello
清除虚拟终端法一:进入对应终端,exit
清除虚拟终端法二:screen -R [PID/Name] -X quit
后台运行虚拟终端:在终端中按下ctrl+a 再按下d
更多绑定键信息:在终端中按下ctrl+a 再输入?
进入活跃的虚拟终端前需要先挂起:screen -d [PID/Name]
,否则-R
回到活跃终端反而会创建新终端。
总之,创建和回到终端前先screenv -ls
确认一下是最好的。
后记
首发于 silencezheng.top,转载请注明出处。