Welcome to the Super Server Platform
一、前言
对于团队开发而言,资源共享是是提高生产效率的有效手段之一,尤其是在当今国际贸易制裁下,高端服务器资源公用将会成为常态。如何合理、高效地利用服务器资源,是本项目要解决的问题。
在多人共用一台GPU服务器的情况下,为了满足不同用户的使用方式和操作习惯特点,同时避免某些用户运行损害系统的命令导致整个服务器宕机,搭建一个支持多人同时在线、资源良好隔离且自愈性强的服务器平台成为了一个重要需求。
多人在线服务器有多种方案,其中一个较为推荐的解决方案是通过虚拟化容器技术来隔离每个人的操作系统,并通过共享文件夹的形式达到多人共用的数据资源。
该仓库包含了关于super-server-platform的搭建、升级记录和使用建议,服务器搭建和升级过程中涉及到的材料将会被包含到这个仓库中,方便回溯和更新。
二、多人在线服务器架构方案
针对多人服务器平台通常有以下几种方案:
2.1 原生系统上直接创建多用户
这种方案简单,只需要开放对应端口即可通过ssh和vnc实现远程操控。然而无法实现资源的隔离,例如无法按需分配GPU资源,无法个性化每个用户的开发环境,另外,某个用户运行损害系统的命令可能会导致整个系统宕机,影响其它用户使用。
2.2 原生系统上搭建虚拟机
该方案可以实现各个用户的开发环境隔离,同时各个用户的系统之间不会相互影响。 虚拟机包含完整的操作系统和应用程序,因此通常需要更多的内存和存储资源。虚拟机的引入会带来性能损耗,且硬件只能独占,不能共享,资源利用率低。
2.3 采用Docker容器
Docker容器提供了一个隔离的开发环境,在不同容器中的用户资源不会受到影响,同时由于容器共享主机操作系统的内核,因此它们更轻量级且占用更少的资源,使用容器几乎不会带来性能损失。虽然是容器化的环境,但Docker是应用级容器,他更偏向于PaaS平台,还是没办法做到让每个用户拥有一个独立的操作系统。
2.4 基于LXC (LinuX Container) 容器
LXC容器属于系统级虚拟化方案,用在单个主机上运行多个隔离的Linux系统容器,例如同时运行Ubuntu和CentOS,各个系统公用一套Linux内核,并且具有完全独立的开发环境。LXC是基于Linux内核的容器技术,与Linux操作系统更加天然集成,提供更好的性能。但LXC也有缺点:如无法有效支持跨主机之间的容器迁移、管理复杂等。而LXD很好地解决了这些问题。
2.5 基于LXD容器
LXD底层也是使用LXC技术,并可以提供更多灵活性和功能。LXD支持Web图形用户界面,使得容器的管理变得更加直观和易用。因此LXD可以视作LXC的升级版。LXD的管理命令和LXC的管理命令大多相同。
三、基于LXD容器的服务平台特性
基于LXD容器平台的核心是LXC,它允许建立多个系统级别的容器,每个容器即是一个完整的Linux操作系统。一个容器既可以支持多个用户共享,也可以一个用户独享。每个容器通过网络与共享文件夹的方式与宿主机进行通讯,每个容器可以独享一个IP地址。LXD支持Web图形用户界面,且兼容所有LXC的命令操作。通过配置LXC容器,可以实现对不同容器进行硬件资源(例如GPU)分配。宿主机系统和LXC容器系统共享一个Linux内核,相同内核的不同Linux发行版本可以同时运行。
具体服务器配置细节参考文末链接,这里不再详细赘述,以下简要介绍该平台使用方案。
3.1 配置方案
LXD支持多个用户,这里配置了Common-Server作为公共使用的容器平台,可以供所有用户临时使用。
对于需要长期使用的用户,建议创建独立的容器,并且根据自己需要配置个性化的开发环境,例如gdw,具体创建方法见文末链接。
这里采用了独立IP配置,因此每个容器在局域网下都有具有独立的IP。
(base) user@user-Super-Server:~$ sudo lxc list
+---------------+---------+-----------------------+------+------------+-----------+
| NAME | STATE | IPV4 | IPV6 | TYPE | SNAPSHOTS |
+---------------+---------+-----------------------+------+------------+-----------+
| Common-Server | RUNNING | 192.168.31.90 (eth0) | | PERSISTENT | 0 |
+---------------+---------+-----------------------+------+------------+-----------+
| user1-server | RUNNING | 192.168.31.xxx (eth0) | | PERSISTENT | 1 |
+---------------+---------+-----------------------+------+------------+-----------+
| user2-server | RUNNING | 192.168.31.xxx (eth0) | | PERSISTENT | 1 |
+---------------+---------+-----------------------+------+------------+-----------+
| user3-server | RUNNING | 192.168.31.xxx (eth0) | | PERSISTENT | 0 |
+---------------+---------+-----------------------+------+------------+-----------+
3.2 资源隔离
如图,在宿主机上可存在4个4090GPU,通过对容器进行配置,可以指定宿主机上的GPU2和GPU3映射到容器系统的GPU0和GPU1上,并且其它的GPU资源对于容器是不可见的,因此可以实现良好的资源隔离。
(base) user@user-Super-Server:~$ nvidia-smi
Mon Jul 8 23:02:38 2024
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.146.02 Driver Version: 535.146.02 CUDA Version: 12.2 |
|-----------------------------------------+----------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+======================+======================|
| 0 NVIDIA GeForce RTX 4090 Off | 00000000:31:00.0 Off | Off |
| 69% 72C P2 311W / 450W | 11140MiB / 24564MiB | 91% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
| 1 NVIDIA GeForce RTX 4090 Off | 00000000:4B:00.0 Off | Off |
| 68% 72C P2 307W / 450W | 7552MiB / 24564MiB | 95% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
| 2 NVIDIA GeForce RTX 4090 Off | 00000000:B1:00.0 Off | Off |
| 60% 66C P2 303W / 450W | 7552MiB / 24564MiB | 97% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
| 3 NVIDIA GeForce RTX 4090 Off | 00000000:CA:00.0 Off | Off |
| 63% 67C P2 301W / 450W | 7552MiB / 24564MiB | 92% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
(base) user@user-Super-Server:~$ sudo lxc config edit Common-Server
### A sample configuration looks like:
### name: container1
### profiles:
### - default
### config:
### volatile.eth0.hwaddr: 00:16:3e:e9:f8:7f
### devices:
### homedir:
### path: /extra
### source: /home/user
### type: disk
### ephemeral: false
###
### Note that the name is shown but cannot be changed
architecture: x86_64
config:
image.architecture: amd64
image.description: Ubuntu bionic amd64 (20240113_07:42)
image.os: Ubuntu
image.release: bionic
image.serial: "20240113_07:42"
security.privileged: "true"
volatile.base_image: 64509028accfe5a2727603687820708af03fa9a04f6821d40d1734a620cd587d
volatile.eth0.hwaddr: 00:16:3e:09:74:9f
volatile.idmap.base: "0"
volatile.idmap.next: '[]'
volatile.last_state.idmap: '[]'
volatile.last_state.power: RUNNING
devices:
data:
path: /home/user/share
source: /home/user/share
type: disk
gpu0:
id: "2"
type: gpu
gpu1:
id: "3"
type: gpu
ephemeral: false
profiles:
- default
stateful: false
description: ""
user@Common-Server:~$ nvidia-smi
Mon Jul 8 15:06:34 2024
+---------------------------------------------------------------------------------------+
| NVIDIA-SMI 535.146.02 Driver Version: 535.146.02 CUDA Version: 12.2 |
|-----------------------------------------+----------------------+----------------------+
| GPU Name Persistence-M | Bus-Id Disp.A | Volatile Uncorr. ECC |
| Fan Temp Perf Pwr:Usage/Cap | Memory-Usage | GPU-Util Compute M. |
| | | MIG M. |
|=========================================+======================+======================|
| 0 NVIDIA GeForce RTX 4090 Off | 00000000:4B:00.0 Off | Off |
| 68% 72C P2 304W / 450W | 7552MiB / 24564MiB | 92% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
| 1 NVIDIA GeForce RTX 4090 Off | 00000000:B1:00.0 Off | Off |
| 60% 66C P2 292W / 450W | 7552MiB / 24564MiB | 92% Default |
| | | N/A |
+-----------------------------------------+----------------------+----------------------+
3.3 文件共享
为了实现各个容器系统的文件共享,需要引入共享文件夹。如图,宿主机和Common-Server容器系统可以同时访问/home/user/share文件夹
(base) user@user-Super-Server:~$ ls /home/user/share/
bcompare-4.4.7.28397_amd64.deb BSDS500 EnvConfig frpnc
user@Common-Server:~$ ls /home/user/share/
bcompare-4.4.7.28397_amd64.deb BSDS500 EnvConfig frpnc
四、基于LXD容器的服务平台使用方式及操作指南
4.1 连接方式
4.1.1 局域网下的SSH访问
例如要连接Common-Server,可在局域网下使用以下命令连接
(base) user@user-Super-Server:~$ ssh [email protected]
[email protected]'s password:
Welcome to Ubuntu 18.04.6 LTS (GNU/Linux 5.4.0-150-generic x86_64)
4.1.2 非局域网下的SSH访问
为了实现非局域网下访问,引入了内网穿透,这里将Common-Server映射到公网IP,可实现非局域网下访问。注意非局域网下仅有10M带宽,因此传输大文件建议使用局域网,或者采用网盘传输。具体连接方式如图
(base) user@user-Super-Server:~$ ssh -p 2222 [email protected]
[email protected]'s password:
Welcome to Ubuntu 18.04.6 LTS (GNU/Linux 5.4.0-150-generic x86_64)
4.1.3 在PyCharm中使用SSH远程开发
使用该方案,可以解决服务器界面不友好的问题。详见How to develop using SSH in PyCharm
4.2 镜像和快照
由于容器是运行在宿主机上的,宿主机具有对容器系统进行备份、恢复的能力。LXD容器提供了镜像和快照功能,将当前系统生成镜像可以将其快速部署到新的系统上(需要LXD环境);通过生成系统快照,可以在系统出现问题时快速恢复到原先正常的状态。具体操作参考How to create LXD snapshot and image,注意:这一操作需要有权限访问宿主机。
4.3 新增用户
基于LXD容器的系统最大的好处就是能够为每个用户提供一个完整的独立的开发环境(Linux内核是所有用户公用的),每个用户都可以根据自己的需求修改系统配置而不会影响到其他用户。
然而,更强大的方案往往意味着更高的技术门槛。因此,在不损失可玩性的同时,保证所有水平的用户拥有一个较好的体验,这里提供了两种使用方式。
4.3.1 在Common-Server上新增用户
第一种方式是在一个公用容器(已经建立好了一个Common- Server)上直接建立多个用户,然后每个用户分配对应的权限(目前按照最高用户权限来)。这种方式的好处是操作简单,无需重新配置环境,对于新手或者对于无特殊环境要求的开发者友好(Common-Server的内网穿透、PyTorch环境已经配置好了)。具体操作参考How to create a new LXD-based system,注意:这一操作需要有权限访问宿主机。
4.3.2 新增LXC容器用户
某些用户对开发环境有特殊要求,且不希望和其它用户共享环境配置,则建议新增一个LXD容器系统。对于新增LXD容器系统,目前有两种方式,其中一种是直接根据Common-Server的镜像克隆一个系统(系统版本是Ubuntu18.04)。对于需要其它版本系统的用户,需要重新下载新的镜像安装,此时可根据需要配置开发环境。具体操作参考How to create a new LXD-based system,注意:这一操作需要有权限访问宿主机。
4.4 拓展空间
LXC系统给每个用户提供了一个独立、完整的存储管理系统,这个用户的数据被系统打包放到一个存储池被LXC平台统一管理,所有用户通过抢占的方式共享这个存储池。
然而,随着用户数量的增多这个存储池占用的空间会显著的变大,有时候需要添加额外的存储空间才能满足用户的需求。
在LXC平台中,可以存在多个存储池,每个存储池又可以包含多个分区,系统有一套自动机制来管理数据的存储。因此要扩充存储池既可以直接增加存储池的个数,也可以增加包含的分区个数来增加存储池的大小,另外还可以直接扩大分区的大小来增加存储池的大小。这三种方式分别对应不同层级的操作,同时具有不同的灵活性、复杂性。
由于我需要添加的是同一块硬盘上的其他分区,且考虑到实现的复杂性,这里选择直接增加分区个数来增加存储池的大小。
实现细节见How to expand storage pool
五、远程桌面
5.1 方案选择和部署细节
在Windows下远程访问Linux服务器的桌面,有几种常见的方法:
xrdp(X Remote Desktop Protocol):xrdp允许Windows使用RDP(Remote Desktop Protocol)来连接到Linux服务器的桌面。这种方式相对简便,因为它使用Windows自带的远程桌面客户端。
VNC(Virtual Network Computing):VNC是一种基于图形界面的远程桌面协议,它允许用户远程访问Linux桌面。
因为xrdp可以兼容Windows远程桌面,因此这里采用xrdp这种方法。
5.1.1 安装 RDP 服务器
在Ubuntu系统上,需要安装一个RDP服务器,如xrdp。使用以下命令安装:
sudo apt-get update
sudo apt-get install xrdp
5.1.2 配置 Xfce4 桌面
xrdp默认使用Xfce4作为桌面环境,使用以下命令安装:
sudo apt-get install xfce4
5.1.3 配置 xrdp
安装完成后,可能需要配置xrdp以使用Xfce4。这通常涉及到编辑.xsession文件,确保它指向Xfce4。这里使用文本编辑器 Vim 编辑 ~/.xsession 文件,并添加以下行:
xfce4-session
5.1.4 启动 xrdp 服务
sudo systemctl enable xrdp
sudo systemctl start xrdp
5.1.5 允许通过防火墙
这一步非必须,如果能连接到 RDP 服务器,则不需要执行这一步。否则,需要确保 RDP 端口 3389 在您的防火墙中是开放的。如果您使用的是ufw,可以使用以下命令:
sudo ufw allow 3389/tcp
5.2 远程桌面使用方式
5.2.1 局域网内连接到RDP服务器
首先连接局域网,在Windows机器上,打开Remote Desktop Connection应用程序,并输入Ubuntu服务器的IP地址(例如192.168.31.90)。您应该会看到登录界面,输入Ubuntu的用户名和密码后,您就可以通过RDP访问Xfce4桌面了。例如:
5.2.2 从外部网络连接到RDP服务器
从外部网络访问内网的RDP服务器,需要把涉及的端口映射到公网IP,通常是3389端口,具体方法自行查阅资料,连接方法为:
公网IP/域名:公网映射的端口号
例如:
jack.tshinghua.me:33389
本实验室人员需获取连接方式请联系管理员。
六、TODO
6.1 LXD管理界面
LXD相比于LXC的好处就是多了界面管理,但是目前由于某些技术上的原因,还未能实现界面,请期待后续更新
6.2 一些解决的BUG
6.2.1 主机断电导致的GPU无法识别
user@Common-Server:~$ conda activate pytorch
(pytorch) user@Common-Server:~$ python
Python 3.8.18 (default, Sep 11 2023, 13:40:15)
[GCC 11.2.0] :: Anaconda, Inc. on linux
Type "help", "copyright", "credits" or "license" for more information.
>>> import torch
>>> print(torch.cuda.is_available())
/home/user/.conda/envs/pytorch/lib/python3.8/site-packages/torch/cuda/__init__.py:138: UserWarning: CUDA initialization: CUDA unknown error - this may be due to an incorrectly set up environment, e.g. changing enble devices to be zero. (Triggered internally at ../c10/cuda/CUDAFunctions.cpp:108.)
return torch._C._cuda_getDeviceCount() > 0
False
>>> exit()
(pytorch) user@Common-Server:~$ sudo reboot
可能由于主机断点重启之后分配给容器的某些参数错误,具体原因参考UserWarning: CUDA initialization: CUDA unknown error - this may be due to an incorrectly set up environment, e.g. changing env variable CUDA_VISIBLE_DEVICES after program start. Setting the available devices to be zero - PyTorch Forums。
解决方法是再LXC服务启动之前在宿主机上初始化一下torch环境,首先需要新建一个脚本
#!/bin/bash
# 激活 conda 环境
source /path/to/anaconda3/etc/profile.d/conda.sh
conda activate pytorch
# 运行 Python 脚本
python - <<EOF
import torch
print(torch.cuda.is_available())
EOF
# 退出 conda 环境
conda deactivate
添加权限
chmod +x /home/your_user/scripts/init_torch.sh
新建自启动服务
sudo nano /etc/systemd/system/init_torch.service
内容如下
[Unit]
Description=Run init_torch script before LXC containers start
Before=lxc-net.service
[Service]
Type=oneshot
ExecStart=/home/your_user/scripts/init_torch.sh
RemainAfterExit=true
[Install]
WantedBy=multi-user.target
添加自启动服务到系统中
sudo systemctl daemon-reload
sudo systemctl enable init_torch.service
sudo systemctl start init_torch.service
sudo systemctl status init_torch.service
6.2.2 宿主机或者容器无法上网(以太网相关问题)
How to configure unique ip for container
6.2.3 更换网口导致LXC连不上网
有时候会出现重启之后连不上网的问题,只能更换网口。由于LXC容器采用的是桥接方式,默认配置的网口发生了变动,需要手动更新。
首先确认当前采用哪个接口作为主干
xd@xd-Super-Server:~$ cat /etc/lxc/default.conf
lxc.net.0.type = veth
lxc.net.0.link = br0
lxc.net.0.flags = up
lxc.net.0.hwaddr = fe:c0:01:21:f0:bb
查看当前网络情况
xd@xd-Super-Server:~$ ifconfig
br0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
ether 00:00:00:00:00:00 txqueuelen 1000 (以太网)
RX packets 82 bytes 12748 (12.7 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 191 bytes 24372 (24.3 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255
ether 02:42:f5:3f:86:95 txqueuelen 0 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enx6c1ff766cc1a: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.31.33 netmask 255.255.255.0 broadcast 192.168.31.255
inet6 fe80::7c5c:bccd:e91a:d8d0 prefixlen 64 scopeid 0x20<link>
ether 6c:1f:f7:66:cc:1a txqueuelen 1000 (以太网)
RX packets 265910 bytes 84951955 (84.9 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 302011 bytes 132802338 (132.8 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enxb03af2b6059f: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether b0:3a:f2:b6:05:9f txqueuelen 1000 (以太网)
RX packets 56 bytes 16670 (16.6 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2522 bytes 426059 (426.0 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (本地环回)
RX packets 1387794 bytes 258840714 (258.8 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1387794 bytes 258840714 (258.8 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxcbr0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 10.0.3.1 netmask 255.255.255.0 broadcast 0.0.0.0
ether 00:16:3e:00:00:00 txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxdbr0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 10.128.199.1 netmask 255.255.255.0 broadcast 0.0.0.0
inet6 fe80::6047:44ff:fe1a:3ee8 prefixlen 64 scopeid 0x20<link>
inet6 fd42:43e2:487f:c26e::1 prefixlen 64 scopeid 0x0<global>
ether 62:47:44:1a:3e:e8 txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 271 bytes 28533 (28.5 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
将这个主干网络桥接到对应的接口上,这里是enx6c1ff766cc1a
sudo nano /etc/netplan/01-netcfg.yaml
修改为如下(或根据原配置调整):
network:
version: 2
renderer: networkd
ethernets:
enx6c1ff766cc1a:
dhcp4: no
bridges:
br0:
interfaces: [enx6c1ff766cc1a]
dhcp4: yes
parameters:
stp: false
forward-delay: 0
保存后:
sudo netplan apply
可以看到现在变成了这样
xd@xd-Super-Server:~$ ifconfig
br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.31.33 netmask 255.255.255.0 broadcast 192.168.31.255
inet6 fe80::6e1f:f7ff:fe66:cc1a prefixlen 64 scopeid 0x20<link>
ether 6c:1f:f7:66:cc:1a txqueuelen 1000 (以太网)
RX packets 18777 bytes 2671873 (2.6 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 19714 bytes 4208572 (4.2 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
ether 02:42:f5:3f:86:95 txqueuelen 0 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enx6c1ff766cc1a: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether 6c:1f:f7:66:cc:1a txqueuelen 1000 (以太网)
RX packets 292285 bytes 96257064 (96.2 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 328267 bytes 137683011 (137.6 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enxb03af2b6059f: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 169.254.3.1 netmask 255.255.255.0 broadcast 169.254.3.255
inet6 fe80::6fdd:6457:822d:7488 prefixlen 64 scopeid 0x20<link>
ether b0:3a:f2:b6:05:9f txqueuelen 1000 (以太网)
RX packets 57 bytes 16998 (16.9 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2561 bytes 434517 (434.5 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (本地环回)
RX packets 1487003 bytes 266912713 (266.9 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 1487003 bytes 266912713 (266.9 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxcbr0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
ether 00:16:3e:00:00:00 txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxdbr0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
ether 62:47:44:1a:3e:e8 txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 280 bytes 29990 (29.9 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
veth52255P: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::fca0:caff:fe17:b685 prefixlen 64 scopeid 0x20<link>
ether fe:a0:ca:17:b6:85 txqueuelen 1000 (以太网)
RX packets 4227 bytes 325713 (325.7 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 7790 bytes 8252380 (8.2 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
veth5XNP37: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::fc07:efff:fefb:49b3 prefixlen 64 scopeid 0x20<link>
ether fe:07:ef:fb:49:b3 txqueuelen 1000 (以太网)
RX packets 669 bytes 61558 (61.5 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 3103 bytes 566848 (566.8 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
vethNXEWP4: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::fc09:29ff:fec0:1c43 prefixlen 64 scopeid 0x20<link>
ether fe:09:29:c0:1c:43 txqueuelen 1000 (以太网)
RX packets 569 bytes 59096 (59.0 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 2867 bytes 241944 (241.9 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
如果以上方法不管用,可以尝试直接将容器桥接到网口
xd@xd-Super-Server:~$ ifconfig
br0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet6 fe80::5471:67ff:fe59:aa1a prefixlen 64 scopeid 0x20<link>
ether 56:71:67:59:aa:1a txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 66 bytes 12628 (12.6 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
docker0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 172.17.0.1 netmask 255.255.0.0 broadcast 172.17.255.255
ether 02:42:f1:13:d9:f3 txqueuelen 0 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enx6c1ff766cc1a: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 192.168.31.33 netmask 255.255.255.0 broadcast 192.168.31.255
inet6 fe80::fc08:8243:f4d8:95a4 prefixlen 64 scopeid 0x20<link>
ether 6c:1f:f7:66:cc:1a txqueuelen 1000 (以太网)
RX packets 6804 bytes 1988710 (1.9 MB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 6135 bytes 3901996 (3.9 MB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
enxb03af2b6059f: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 169.254.3.1 netmask 255.255.255.0 broadcast 169.254.3.255
inet6 fe80::101d:a906:9bdd:2445 prefixlen 64 scopeid 0x20<link>
ether b0:3a:f2:b6:05:9f txqueuelen 1000 (以太网)
RX packets 4 bytes 1030 (1.0 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 67 bytes 12862 (12.8 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lo: flags=73<UP,LOOPBACK,RUNNING> mtu 65536
inet 127.0.0.1 netmask 255.0.0.0
inet6 ::1 prefixlen 128 scopeid 0x10<host>
loop txqueuelen 1000 (本地环回)
RX packets 962 bytes 86385 (86.3 KB)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 962 bytes 86385 (86.3 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxcbr0: flags=4099<UP,BROADCAST,MULTICAST> mtu 1500
inet 10.0.3.1 netmask 255.255.255.0 broadcast 0.0.0.0
ether 00:16:3e:00:00:00 txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 0 bytes 0 (0.0 B)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
lxdbr0: flags=4163<UP,BROADCAST,RUNNING,MULTICAST> mtu 1500
inet 10.128.199.1 netmask 255.255.255.0 broadcast 0.0.0.0
inet6 fe80::acee:d9ff:fec4:7fff prefixlen 64 scopeid 0x20<link>
inet6 fd42:43e2:487f:c26e::1 prefixlen 64 scopeid 0x0<global>
ether ae:ee:d9:c4:7f:ff txqueuelen 1000 (以太网)
RX packets 0 bytes 0 (0.0 B)
RX errors 0 dropped 0 overruns 0 frame 0
TX packets 66 bytes 9079 (9.0 KB)
TX errors 0 dropped 0 overruns 0 carrier 0 collisions 0
xd@xd-Super-Server:~$ sudo lxc profile edit default
### This is a yaml representation of the profile.
### Any line starting with a '# will be ignored.
###
### A profile consists of a set of configuration items followed by a set of
### devices.
###
### An example would look like:
### name: onenic
### config:
### raw.lxc: lxc.aa_profile=unconfined
### devices:
### eth0:
### nictype: bridged
### parent: lxdbr0
### type: nic
###
### Note that the name is shown but cannot be changed
config: {}
description: Default LXD profile
devices:
eth0:
name: eth0
nictype: macvlan # 这里可以改成bridged
parent: enx6c1ff766cc1a # 这里直接接到网口
type: nic
root:
path: /
pool: default
type: disk
name: default
used_by:
- /1.0/containers/Common-Server
- /1.0/containers/gdw-server
- /1.0/containers/zjy-server
- /1.0/containers/hwt-server
- /1.0/containers/yhc-server
- /1.0/containers/build-server
- /1.0/containers/zxy-server
- /1.0/containers/dvc-server
- /1.0/containers/ubuntu2204
- /1.0/containers/ubuntu
- /1.0/containers/zzk-server
- /1.0/containers/xjh-server
参考文献
LXD教程入门实践 配置独立ip 挂载gpu显卡驱动 制作镜像
【保姆级教程】Windows 远程登录 Ubuntu桌面环境_windows登录ubantu桌面-CSDN博客
所需要的材料可以在这里找到