当前位置: 首页>>技术教程>>正文


如何在 UEFI/GPT 系统上安装带有 dual-boot RAID 1 分区的 Ubuntu 14.04/16.04 64 位?

, , , ,

问题描述

更新:以下问题和答案也适用于 Ubuntu 16.04

我有一台配备双 SSD 的计算机,并且在另一个磁盘上预装了 Win (7)。预安装使用 (U)EFI/GPT 启动。我想在我的 SSD 上的 RAID1 根分区上安装 Ubuntu 14.04 64 位桌面,并且仍然能够 dual-boot 我的 Win7 系统。这可能吗?

使用桌面安装程序的 This guide 不起作用,可能是因为它(隐式)假设 MBR 启动。installing the server distribution 也不起作用,可能是出于同样的原因。

最佳思路

更新:我已验证以下描述也适用于 Ubuntu 16.04。其他用户报告称其适用于 17.10 和 18.04.1。

注意:本 HOWTO 不会提供 LVM。如果您也需要 LVM,请尝试使用 Install Ubuntu 18.04 desktop with RAID 1 and LVM on machine with UEFI BIOS

经过几天的尝试,我现在有了一个可以运行的系统!简而言之,解决方案包括以下步骤:

  1. 使用 Ubuntu Live CD/USB 启动。

  2. 根据需要对 SSD 进行分区。

  3. 安装缺失的软件包(mdadm 和 grub-efi)。

  4. 创建 RAID 分区。

  5. 运行 Ubiquity 安装程序(但不要启动新系统)。

  6. 修补已安装的系统(initramfs)以便从 RAID 根启动。

  7. 用 GRUB 填充第一个 SSD 的 EFI 分区并将其安装到 EFI 启动链中。

  8. 将 EFI 分区克隆到另一个 SSD 并将其安装到启动链中。

  9. 完成!您的系统现在将具有 RAID 1 冗余。请注意,在内核更新等之后不需要执行任何特殊操作,因为 UEFI 分区未受影响。

解决方案第 6 步的一个关键部分是启动顺序的延迟,否则如果任何一个 SSD 丢失,我就会直接进入 GRUB 提示符(没有键盘!)。

详细操作指南

1. 启动

使用 USB 上的 EFI 启动。具体操作方法将因您的系统而异。\n选择尝试 ubuntu 而不安装。

启动终端仿真器,例如 xterm 来运行以下命令。

1.1 从另一台计算机登录

在尝试此方法时,我发现从另一台已完全配置的计算机登录更容易。这简化了 cut-and-paste 命令等。如果您想执行相同操作,可以通过执行以下操作通过 ssh 登录:

在需要配置的计算机上,安装 openssh 服务器:

sudo apt-get install openssh-server

更改密码。用户 ubuntu 的默认密码为空。您可能可以选择 medium-strength 密码。重新启动新计算机后,该密码将被忘记。

passwd

现在您可以从另一台计算机登录 ubuntu live 会话。以下说明适用于 Linux:

ssh -l ubuntu <your-new-computer>

如果您收到有关可疑 man-in-the-middle-attack 的警告,则需要清除用于识别新计算机的 ssh 密钥。这是因为 openssh-server 在安装时会生成新的服务器密钥。要使用的命令通常会打印出来,如下所示

ssh-keygen -f <path-to-.ssh/known_hosts> -R <your-new-computer>

执行该命令后,您应该能够登录到 ubuntu live 会话。

2. 分区磁盘

清除所有旧分区和引导块。警告!这将破坏磁盘上的数据!

sudo sgdisk -z /dev/sda
sudo sgdisk -z /dev/sdb

在最小的驱动器上创建新分区:100M 用于 ESP,32G 用于 RAID SWAP,其余用于 RAID root。如果您的 sda 驱动器最小,请按照第 2.1 节操作,否则请按照第 2.2 节操作。

2.1 创建分区表(/dev/sda较小)

执行以下步骤:

sudo sgdisk -n 1:0:+100M -t 1:ef00 -c 1:"EFI System" /dev/sda
sudo sgdisk -n 2:0:+32G -t 2:fd00 -c 2:"Linux RAID" /dev/sda
sudo sgdisk -n 3:0:0 -t 3:fd00 -c 3:"Linux RAID" /dev/sda

将分区表复制到其他磁盘并重新生成唯一的 UUID(实际上将为 sda 重新生成 UUID)。

sudo sgdisk /dev/sda -R /dev/sdb -G

2.2 创建分区表(/dev/sdb较小)

执行以下步骤:

sudo sgdisk -n 1:0:+100M -t 1:ef00 -c 1:"EFI System" /dev/sdb
sudo sgdisk -n 2:0:+32G -t 2:fd00 -c 2:"Linux RAID" /dev/sdb
sudo sgdisk -n 3:0:0 -t 3:fd00 -c 3:"Linux RAID" /dev/sdb

将分区表复制到其他磁盘并重新生成唯一的 UUID(实际上将为 sdb 重新生成 UUID)。

sudo sgdisk /dev/sdb -R /dev/sda -G

2.3 在/dev/sda上创建FAT32文件系统

为 EFI 分区创建 FAT32 文件系统。

sudo mkfs.fat -F 32 /dev/sda1
mkdir /tmp/sda1
sudo mount /dev/sda1 /tmp/sda1
sudo mkdir /tmp/sda1/EFI
sudo umount /dev/sda1

3. 安装缺失的软件包

Ubuntu Live CD 不附带两个关键软件包:grub-efi 和 mdadm。请安装它们。(我不确定这里是否需要 grub-efi,但为了与即将到来的安装保持对称,请也将其带入。)

sudo apt-get update
sudo apt-get -y install grub-efi-amd64 # (or grub-efi-amd64-signed)
sudo apt-get -y install mdadm

如果启用了安全启动,则可能需要 grub-efi-amd64-signed 而不是 grub-efi-amd64。(请参阅 Alecz 的评论。)

4.创建 RAID 分区

在降级模式下创建 RAID 设备。设备稍后将完成。在下面的 ubiquity 安装过程中,创建完整 RAID1 有时会给我带来问题,不知道为什么。(安装/卸载?格式化?)

sudo mdadm --create /dev/md0 --bitmap=internal --level=1 --raid-disks=2 /dev/sda2 missing
sudo mdadm --create /dev/md1 --bitmap=internal --level=1 --raid-disks=2 /dev/sda3 missing

验证 RAID 状态。

cat /proc/mdstat

Personalities : [raid1] 
md1 : active raid1 sda3[0]
      216269952 blocks super 1.2 [2/1] [U_]
      bitmap: 0/2 pages [0KB], 65536KB chunk

md0 : active raid1 sda2[0]
      33537920 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

对 md 设备进行分区。

sudo sgdisk -z /dev/md0
sudo sgdisk -z /dev/md1
sudo sgdisk -N 1 -t 1:8200 -c 1:"Linux swap" /dev/md0
sudo sgdisk -N 1 -t 1:8300 -c 1:"Linux filesystem" /dev/md1

5. 运行安装程序

运行 ubiquity 安装程序,但不包括引导加载程序 that will fail anyway 。(注意:如果您已通过 ssh 登录,则可能需要在新计算机上执行此操作。)

sudo ubiquity -b

安装类型选择 Something else,修改 md1p1 类型为 ext4 ,格式为 yes ,挂载点为 /md0p1 分区会自动选择为 swap 分区。

安装完成时,喝杯咖啡。

重要提示:安装完成后,请选择继续测试,因为系统尚未准备好启动。

完成 RAID 设备

将等待的 sdb 分区附加到 RAID。

sudo mdadm --add /dev/md0 /dev/sdb2
sudo mdadm --add /dev/md1 /dev/sdb3

验证所有 RAID 设备均正常(并且可以选择同步)。

cat /proc/mdstat

Personalities : [raid1] 
md1 : active raid1 sdb3[1] sda3[0]
      216269952 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.2% (465536/216269952)  finish=17.9min speed=200000K/sec
      bitmap: 2/2 pages [8KB], 65536KB chunk

md0 : active raid1 sdb2[1] sda2[0]
      33537920 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

以下过程可能会在同步期间继续,包括重新启动。

6.配置已安装的系统

设置以启用 chroot 进入安装系统。

sudo -s
mount /dev/md1p1 /mnt
mount -o bind /dev /mnt/dev
mount -o bind /dev/pts /mnt/dev/pts
mount -o bind /sys /mnt/sys
mount -o bind /proc /mnt/proc
cat /etc/resolv.conf >> /mnt/etc/resolv.conf
chroot /mnt

配置并安装包。

apt-get install -y grub-efi-amd64 # (or grub-efi-amd64-signed; same as in step 3)
apt-get install -y mdadm

如果您的 md 设备仍在同步,您可能会偶尔看到类似以下警告:

/usr/sbin/grub-probe: warning: Couldn't find physical volume `(null)'. Some modules may be missing from core image..

这是正常的,可以忽略(参见 \n this question 底部的答案)。

nano /etc/grub.d/10_linux
# change quick_boot and quiet_boot to 0

禁用 quick_boot 将避免 Diskfilter writes are not supported 错误。禁用 quiet_boot 仅是个人喜好问题。

修改 /etc/mdadm/mdadm.conf 以删除任何标签引用,即更改

ARRAY /dev/md/0 metadata=1.2 name=ubuntu:0 UUID=f0e36215:7232c9e1:2800002e:e80a5599
ARRAY /dev/md/1 metadata=1.2 name=ubuntu:1 UUID=4b42f85c:46b93d8e:f7ed9920:42ea4623

ARRAY /dev/md/0 UUID=f0e36215:7232c9e1:2800002e:e80a5599
ARRAY /dev/md/1 UUID=4b42f85c:46b93d8e:f7ed9920:42ea4623

这一步可能是不必要的,但我看到一些页面表明命名方案可能不稳定(name=ubuntu:0/1),这可能会阻止在启动过程中组装完好的 RAID 设备。

修改 /etc/default/grub 中的行以读取

#GRUB_CMDLINE_LINUX_DEFAULT="quiet splash"
GRUB_CMDLINE_LINUX=""

再次强调,这一步可能是不必要的,但我更喜欢睁着眼睛开机……

6.1. 添加睡眠脚本

(社区建议此步骤可能没有必要,可以使用 /etc/default/grub 中的 GRUB_CMDLINE_LINUX="rootdelay=30" 进行替换。出于本 HOWTO 底部解释的原因,我建议坚持使用 sleep 脚本,即使它比使用 rootdelay 更丑陋。因此,我们继续使用我们的常规程序……)

创建一个脚本,等待 RAID 设备稳定下来。如果没有这个延迟,mounting of root may fail due to the RAID assembly not being finished in time。我费了一番功夫才发现这一点 – 直到我断开其中一个 SSD 以模拟磁盘故障时,问题才出现!可能需要根据可用硬件(例如速度较慢的外部 USB 磁盘等)调整时间。

/usr/share/initramfs-tools/scripts/local-premount/sleepAwhile 中输入以下代码:

#!/bin/sh
echo
echo "sleeping for 30 seconds while udevd and mdadm settle down"
sleep 5
echo "sleeping for 25 seconds while udevd and mdadm settle down"
sleep 5
echo "sleeping for 20 seconds while udevd and mdadm settle down"
sleep 5
echo "sleeping for 15 seconds while udevd and mdadm settle down"
sleep 5
echo "sleeping for 10 seconds while udevd and mdadm settle down"
sleep 5
echo "sleeping for 5 seconds while udevd and mdadm settle down"
sleep 5
echo "done sleeping"

使脚本可执行并安装它。

chmod a+x /usr/share/initramfs-tools/scripts/local-premount/sleepAwhile
update-grub
update-initramfs -u

7. 从第一个 SSD 启用启动

现在系统几乎已经准备好了,只需要安装 UEFI 启动参数。

mount /dev/sda1 /boot/efi
grub-install --boot-directory=/boot --bootloader-id=Ubuntu --target=x86_64-efi --efi-directory=/boot/efi --recheck
update-grub
umount /dev/sda1

这将在 /boot/efi/EFI/Ubuntu(又名 /dev/sda1 上的 EFI/Ubuntu)中安装引导加载程序,并首先将其安装在计算机的 UEFI 引导链中。

8. 启用从第二个 SSD 启动

我们快完成了。此时,我们应该能够在 sda 驱动器上重新启动。此外,mdadm 应该能够处理 sdasdb 驱动器的故障。但是,EFI 没有 RAID,所以我们需要 clone it

dd if=/dev/sda1 of=/dev/sdb1

除了在第二个驱动器上安装引导加载程序之外,这还将使 sdb1 分区上的 FAT32 文件系统的 UUID(由 blkid 报告)与 sda1/etc/fstab 相匹配。 (但请注意, /dev/sda1/dev/sdb1 分区的 UUID 仍然不同 – 安装后将 ls -la /dev/disk/by-partuuid | grep sd[ab]1blkid /dev/sd[ab]1 进行比较以自行检查。)

最后,我们必须将 sdb1 分区插入到启动顺序中。(注意:此步骤可能不是必需的,具体取决于您的 BIOS。我收到报告称,某些 BIOS 会自动生成有效 ESP 列表。)

efibootmgr -c -g -d /dev/sdb -p 1 -L "Ubuntu #2" -l '\EFI\ubuntu\grubx64.efi'

我没有测试过,但可能需要在 sdasdb 上的 ESP 之间有唯一的标签 (-L)。

这将生成当前启动顺序的打印输出,例如

Timeout: 0 seconds
BootOrder: 0009,0008,0000,0001,0002,000B,0003,0004,0005,0006,0007
Boot0000  Windows Boot Manager
Boot0001  DTO UEFI USB Floppy/CD
Boot0002  DTO UEFI USB Hard Drive
Boot0003* DTO UEFI ATAPI CD-ROM Drive
Boot0004  CD/DVD Drive 
Boot0005  DTO Legacy USB Floppy/CD
Boot0006* Hard Drive
Boot0007* IBA GE Slot 00C8 v1550
Boot0008* Ubuntu
Boot000B  KingstonDT 101 II PMAP
Boot0009* Ubuntu #2

请注意,Ubuntu #2 (sdb) 和 Ubuntu (sda) 在启动顺序中是第一位的。

Reboot

现在我们准备重新启动。

exit # from chroot
exit # from sudo -s
sudo reboot

系统现在应该重新启动进入 Ubuntu(您可能必须先删除 Ubuntu Live 安装媒体。)

启动后你可以运行

sudo update-grub

将 Windows 引导加载程序附加到 grub 引导链。

虚拟机陷阱

如果您想先在虚拟机中尝试这一点,请注意以下几点:显然,保存 UEFI 信息的 NVRAM 会在重新启动之间被记住,但不会记住 shutdown-restart 周期之间的信息。在这种情况下,您可能会进入 UEFI Shell 控制台。以下命令应从 /dev/sda1 引导您进入机器(对于 /dev/sdb1 使用 FS1:):

FS0:
\EFI\ubuntu\grubx64.efi

UEFI boot in virtualbox – Ubuntu 12.04 的最佳答案中的第一个解决方案可能也会有帮助。

模拟磁盘故障

可以使用 mdadm 模拟任一 RAID 组件设备的故障。但是,为了验证启动内容能否在磁盘故障后继续存在,我不得不关闭计算机并断开磁盘电源。如果这样做,请首先确保 md 设备已同步。

cat /proc/mdstat 

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md1 : active raid1 sdb3[2] sda3[0]
      216269952 blocks super 1.2 [2/2] [UU]
      bitmap: 2/2 pages [8KB], 65536KB chunk

md0 : active raid1 sda2[0] sdb2[2]
      33537920 blocks super 1.2 [2/2] [UU]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

在下面的说明中,sdX 是故障设备(X=a 或 b),sdY 是正常设备。

断开驱动器

关闭计算机。断开驱动器。重新启动。Ubuntu 现在应该以降级模式启动 RAID 驱动器。(庆祝!这就是您想要实现的目标!;)

cat /proc/mdstat 

Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md1 : active raid1 sda3[0]
      216269952 blocks super 1.2 [2/1] [U_]
      bitmap: 2/2 pages [8KB], 65536KB chunk

md0 : active raid1 sda2[0]
      33537920 blocks super 1.2 [2/1] [U_]
      bitmap: 0/1 pages [0KB], 65536KB chunk

unused devices: <none>

从故障磁盘恢复

如果您需要更换故障磁盘,请按照此过程操作。如果您想模拟更换,可以启动 Ubuntu Live 会话并使用

dd if=/dev/zero of=/dev/sdX

在将 re-rebooting 放入实际系统之前将磁盘擦除干净。如果您刚刚在上面的部分中测试了启动/RAID 冗余,则可以跳过此步骤。但是,您必须至少执行下面的步骤 2 和 4 才能恢复系统的完整启动/RAID 冗余。

更换磁盘后恢复 RAID+boot 系统需要以下步骤:

  1. 对新驱动器进行分区。

  2. 将分区添加到 md 设备。

  3. 克隆启动分区。

  4. 为克隆添加 EFI 记录。

1. 对新驱动器进行分区

从健康的驱动器复制分区表:

sudo sgdisk /dev/sdY -R /dev/sdX

新驱动器上的 Re-randomize UUID。

sudo sgdisk /dev/sdX -G

2. 添加到 md 设备

sudo mdadm --add /dev/md0 /dev/sdX2
sudo mdadm --add /dev/md1 /dev/sdX3

3.克隆启动分区

从健康驱动器克隆 ESP。(小心,如​​果真的搞砸了,也许可以先对两个 ESP 执行 dump-to-file 以启用恢复。)

sudo dd if=/dev/sdY1 of=/dev/sdX1

4. 将新恢复的磁盘插入启动顺序

为克隆添加 EFI 记录。根据需要修改 -L 标签。

sudo efibootmgr -c -g -d /dev/sdX -p 1 -L "Ubuntu #2" -l '\EFI\ubuntu\grubx64.efi'

现在,重新启动系统应该可以恢复正常(RAID 设备可能仍在同步)!

为什么要使用睡眠脚本?

社区建议添加睡眠脚本可能没有必要,可以通过在 /etc/default/grub 中使用 GRUB_CMDLINE_LINUX="rootdelay=30",然后使用 sudo update-grub 来代替。这个建议当然更简洁,并且在磁盘故障/更换情况下确实有效。但是,有一个警告…

我断开了第二个 SSD 的连接,发现使用 rootdelay=30 等代替睡眠脚本:\n1) 系统确实在降级模式下启动,无需 “failed” 驱动器。\n2) 在非降级启动(两个驱动器都存在)中,启动时间缩短。只有在第二个驱动器缺失时,延迟才会明显。

1) 和 2) 听起来不错,直到我 re-added 第二个驱动器。在启动时,RAID 阵列无法组装,让我停留在 initramfs 提示符处而不知道该怎么做。可能可以通过 a) 启动到 Ubuntu Live USB 棒、b) 安装 mdadm 和 c) 手动 re-assembling 阵列来挽救这种情况,但是…我在某个地方搞砸了。相反,当我 re-ran 使用睡眠脚本进行此测试时(是的,我确实第 n 次从顶部启动了 HOWTO…),系统确实启动了。阵列处于降级模式,我可以手动 re-add /dev/sdb[23] 分区,而无需任何额外的 USB 棒。我不知道为什么睡眠脚本有效而 rootdelay 无效。也许 mdadm 会被两个略微 out-of-sync 的组件设备搞混,但我认为 mdadm 就是为处理这种情况而设计的。无论如何,既然睡眠脚本有效,我就会坚持使用它。

有人可能会说,移除完好无损的 RAID 组件设备、将 RAID 重新启动到降级模式,然后重新添加组件设备是一种不切实际的情况:现实情况是,一个设备发生故障,被一个新设备替换,这样 mdadm 就不会感到困惑。我同意这个说法。但是,除了实际禁用某些硬件外,我不知道如何测试系统如何容忍硬件故障!测试后,我想回到冗余的、正常工作的系统。(好吧,我可以将我的第二个 SSD 连接到另一台机器上,然后在重新添加它之前刷一下,但这是不可行的。)

总结:据我所知,rootdelay 解决方案很干净,比非降级启动的睡眠脚本更快,并且应该适用于真正的驱动器故障/更换场景。但是,我不知道可行的测试方法。所以,暂时,我将坚持使用丑陋的睡眠脚本。

参考资料

本文由Ubuntu问答整理, 博文地址: https://ubuntuqa.com/article/14635.html,未经允许,请勿转载。