Modifications, correctifs et solutions de contournement importants de Proxmox VE 8 PCI/PCIE Passthrough

Modifications Correctifs Et Solutions De Contournement Importants De Proxmox Ve 8 Pci Pcie Passthrough



Ces dernières années, la prise en charge du PCI/PCIE (c'est-à-dire le passthrough GPU) s'est considérablement améliorée sur les nouveaux matériels. Donc, le régulier Guide de passage Proxmox VE PCI/PCIE et GPU devrait fonctionner sur la plupart des nouveaux matériels. Néanmoins, vous pouvez rencontrer de nombreux problèmes lors du passage des GPU et autres périphériques PCI/PCIE sur une machine virtuelle Proxmox VE. Il existe de nombreux ajustements/correctifs/solutions de contournement pour certains des problèmes courants de GPU Proxmox VE et de passthrough PCI/PCIE.

Dans cet article, je vais discuter de certains des problèmes de passthrough PCI/PCIE et GPU passthrough Proxmox VE les plus courants et des étapes que vous pouvez suivre pour résoudre ces problèmes.









Table des matières

  1. Que faire si le remappage des interruptions IOMMU n'est pas pris en charge ?
  2. Que faire si mon GPU (ou périphérique PCI/PCIE) ne fait pas partie de son propre groupe IOMMU ?
  3. Comment mettre sur liste noire les pilotes GPU AMD sur Proxmox VE ?
  4. Comment mettre sur liste noire les pilotes GPU NVIDIA sur Proxmox VE ?
  5. Comment mettre sur liste noire les pilotes GPU Intel sur Proxmox VE ?
  6. Comment vérifier si mon GPU (ou périphérique PCI/PCIE) utilise le pilote VFIO sur Proxmox VE ?
  7. J'ai mis les pilotes GPU AMU sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?
  8. J'ai mis les pilotes GPU NVIDIA sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?
  9. J'ai mis les pilotes GPU Intel sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?
  10. Un seul GPU utilisait le pilote VFIO, mais lors de la configuration d'un deuxième GPU, cela n'a pas fonctionné, pourquoi ?
  11. Pourquoi désactiver l'arbitrage VGA pour les GPU et comment le faire ?
  12. Que faire si mon GPU n'utilise toujours pas le pilote VFIO même après avoir configuré VFIO ?
  13. Le GPU Passthrough n'a montré aucune erreur, mais j'obtiens un écran noir sur le moniteur connecté au GPU transmis à la machine virtuelle Proxmox VE, pourquoi ?
  14. Qu'est-ce qu'un bug de réinitialisation du fournisseur AMD et comment le résoudre ?
  15. Comment fournir un vBIOS pour le GPU transmis sur une machine virtuelle Proxmox VE ?
  16. Que faire si certaines applications plantent la machine virtuelle Windows Proxmox VE ?
  17. Comment résoudre les problèmes de crépitement/casse audio HDMI sur les machines virtuelles Proxmox VE Linux ?.
  18. Comment mettre à jour les initramfs de Proxmox VE ?
  19. Comment mettre à jour le chargeur de démarrage Proxmox VE GRUB ?
  20. Conclusion
  21. Les références



Que faire si le remappage des interruptions IOMMU n'est pas pris en charge ?

Pour le relais PCI/PCIE, le remappage des interruptions IOMMU est essentiel.





Pour vérifier si votre processeur prend en charge le remappage des interruptions IOMMU, exécutez la commande ci-dessous :

$ dmesg | grep -i remapper



Si votre processeur prend en charge le remappage des interruptions IOMMU, vous verrez une sorte de sortie confirmant que le remappage des interruptions est activé. Sinon, vous ne verrez aucune sortie.

Si le remappage des interruptions IOMMU n'est pas pris en charge sur votre processeur, vous devrez configurer des interruptions non sécurisées sur votre serveur Proxmox VE pour passer via les périphériques PCI/PCIE sur les machines virtuelles Proxmox VE.

Pour configurer les interruptions dangereuses sur Proxmox VE, créez un nouveau fichier iommu_unsafe_interrupts.conf dans le /etc/modprobe.d répertoire et ouvrez-le avec l’éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/iommu_unsafe_interrupts.conf

Ajoutez la ligne suivante dans le iommu_unsafe_interrupts.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

options vfio_iommu_type1 allow_unsafe_interrupts=1

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE .

Que faire si mon GPU (ou périphérique PCI/PCIE) ne fait pas partie de son propre groupe IOMMU ?

Si votre serveur dispose de plusieurs emplacements PCI/PCIE, vous pouvez déplacer le GPU vers un autre emplacement PCI/PCIE et voir si le GPU se trouve dans son propre groupe IOMMU.

Si cela ne fonctionne pas, vous pouvez essayer d'activer le correctif du noyau de remplacement ACS sur Proxmox VE.

Pour essayer d'activer le correctif du noyau de remplacement ACS sur Proxmox VE, ouvrez le /etc/default/grub fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/default/grub

Ajouter l'option de démarrage du noyau pcie_acs_override=en aval à la fin de GRUB_CMDLINE_LINUX_DEFAULT .

Une fois que vous avez terminé, appuyez sur + X suivi de ET et pour enregistrer le fichier et assurez-vous de mettre à jour le chargeur de démarrage Proxmox VE GRUB pour que les modifications prennent effet.

Vous devriez avoir un meilleur regroupement IOMMU une fois votre serveur Proxmox VE démarré.

Si votre GPU ne possède toujours pas son propre groupe IOMMU, vous pouvez aller plus loin en utilisant le pcie_acs_override=aval,multifonction plutôt. Vous devriez avoir un groupe IOMMU encore meilleur.

Si pcie_acs_override=aval,multifonction se traduit par un meilleur regroupement IOMMU qui pcie_acs_override=en aval , alors pourquoi utiliser pcie_acs_override=en aval du tout?

Eh bien, le but du remplacement du PCIE ACS est de tromper le noyau en lui faisant croire que les périphériques PCIE sont isolés alors qu'ils ne le sont pas en réalité. Ainsi, le remplacement du PCIE ACS entraîne des problèmes de sécurité et de stabilité. C'est pourquoi vous devriez essayer d'utiliser une option de remplacement PCIE ACS moins agressive. pcie_acs_override=en aval d'abord et voyez si votre problème est résolu. Si pcie_acs_override=en aval ne fonctionne pas, alors seulement vous devez utiliser l'option la plus agressive pcie_acs_override=aval,multifonction .

Comment mettre sur liste noire les pilotes GPU AMD sur Proxmox VE ?

Si vous souhaitez passer par un GPU AMD sur les machines virtuelles Proxmox VE, vous devez mettre sur liste noire les pilotes GPU AMD et vous assurer qu'il utilise à la place le pilote VFIO.

Tout d'abord, ouvrez le /etc/modprobe.d/blacklist.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/blacklist.conf

Pour mettre sur liste noire les pilotes GPU AMD, ajoutez les lignes suivantes au /etc/modprobe.d/blacklist.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

radeon sur liste noire

liste noire amdgpu

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

Comment mettre sur liste noire les pilotes GPU NVIDIA sur Proxmox VE ?

Si vous souhaitez transmettre un GPU NVIDIA sur les machines virtuelles Proxmox VE, vous devez mettre sur liste noire les pilotes GPU NVIDIA et vous assurer qu'il utilise à la place le pilote VFIO.

Tout d'abord, ouvrez le /etc/modprobe.d/blacklist.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/blacklist.conf

Pour mettre sur liste noire les pilotes GPU NVIDIA, ajoutez les lignes suivantes au /etc/modprobe.d/blacklist.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

liste noire nouveau

liste noire nvidia

liste noire nvidiafb

liste noire nvidia_drm

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

Comment mettre sur liste noire les pilotes GPU Intel sur Proxmox VE ?

Si vous souhaitez transmettre un GPU Intel sur les machines virtuelles Proxmox VE, vous devez mettre sur liste noire les pilotes du GPU Intel et vous assurer qu'il utilise à la place le pilote VFIO.

Tout d'abord, ouvrez le /etc/modprobe.d/blacklist.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/blacklist.conf

Pour mettre sur liste noire les pilotes GPU Intel, ajoutez les lignes suivantes au /etc/modprobe.d/blacklist.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

liste noire snd_hda_intel

liste noire snd_hda_codec_hdmi

liste noire i915

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

Comment vérifier si mon GPU (ou périphérique PCI/PCIE) utilise le pilote VFIO sur Proxmox VE ?

Pour vérifier si votre GPU ou les périphériques PCI/PCIE souhaités utilisent le pilote VFIO, exécutez la commande suivante :

$ lspci -v

Si votre GPU ou périphérique PCI/PCIE utilise le pilote VFIO, vous devriez voir la ligne Pilote du noyau utilisé : vfio-pci comme indiqué dans la capture d'écran ci-dessous.

J'ai mis les pilotes GPU AMU sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?

Parfois, mettre sur liste noire les pilotes GPU AMD ne suffit pas, vous devez également configurer les pilotes GPU AMD pour qu'ils se chargent après le pilote VFIO.

Pour ce faire, ouvrez le /etc/modprobe.d/vfio.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/vfio.conf

Pour configurer les pilotes GPU AMD à charger après le pilote VFIO, ajoutez les lignes suivantes au /etc/modprobe.d/vfio.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

softdep radeon pré: vfio-pci

softdep amdgpu pré : vfio-pci

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

J'ai mis les pilotes GPU NVIDIA sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?

Parfois, mettre sur liste noire les pilotes GPU NVIDIA ne suffit pas, vous devez également configurer les pilotes GPU NVIDIA pour qu'ils se chargent après le pilote VFIO.

Pour ce faire, ouvrez le /etc/modprobe.d/vfio.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/vfio.conf

Pour configurer les pilotes GPU NVIDIA à charger après le pilote VFIO, ajoutez les lignes suivantes au /etc/modprobe.d/vfio.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

softdep nouveau pre: vfio-pci

softdep nvidia pour : vfio-pci

softdep nvidiafb pour : vfio-pci

softdep nvidia_drm pré: vfio-pci

softdep drm pré : vfio-pci

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

J'ai mis les pilotes GPU Intel sur liste noire, mais le GPU n'utilise pas le pilote VFIO, que faire ?

Parfois, mettre sur liste noire les pilotes GPU Intel ne suffit pas, vous devez également configurer les pilotes GPU Intel pour qu'ils se chargent après le pilote VFIO.

Pour ce faire, ouvrez le /etc/modprobe.d/vfio.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/vfio.conf

Pour configurer les pilotes GPU Intel à charger après le pilote VFIO, ajoutez les lignes suivantes au /etc/modprobe.d/vfio.conf fichier et appuyez sur + X suivi de ET et pour enregistrer le fichier.

softdep snd_hda_intel pré: vfio-pci

softdep snd_hda_codec_hdmi pré: vfio-pci

softdep i915 pré: vfio-pci

Une fois que vous avez terminé, vous devez mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

Un seul GPU utilisait le pilote VFIO, mais lors de la configuration d'un deuxième GPU, cela n'a pas fonctionné, pourquoi ?

Dans le /etc/modprobe.d/vfio.conf , vous devez ajouter les ID de tous les périphériques PCI/PCIE sur lesquels vous souhaitez utiliser le pilote VFIO sur une seule ligne. Un appareil par ligne ne fonctionnera pas.

Par exemple, si vous souhaitez configurer 2 GPU pour utiliser le pilote VFIO, vous devez ajouter leurs ID sur une seule ligne dans le fichier /etc/modprobe.d/vfio.conf déposer comme suit :

options vfio-pci ids=,,,

Si vous souhaitez ajouter un autre GPU à la liste, ajoutez-le simplement à la fin du nom existant. vfio-pci ligne dans le /etc/modprobe.d/vfio.conf déposer comme suit :

options vfio-pci ids=,,,,,

Ne fais jamais ça. Même si cela semble beaucoup plus propre, cela ne fonctionnera pas. J'aimerais que nous puissions spécifier les identifiants PCI/PCIE de cette façon.

options identifiants vfio-pci=,

options identifiants vfio-pci=,

options identifiants vfio-pci=,

Pourquoi désactiver l'arbitrage VGA pour les GPU et comment le faire ?

Si vous utilisez le BIOS UEFI/OVMF sur la machine virtuelle Proxmox VE sur laquelle vous souhaitez transmettre le GPU, vous pouvez désactiver l'arbitrage VGA, ce qui réduira les codes hérités requis lors du démarrage.

Pour désactiver l'arbitrage VGA pour les GPU, ajoutez désactiver_vga=1 à la fin de option vfio-pci dans le /etc/modprobe.d/vfio.conf fichier comme indiqué ci-dessous :

options vfio-pci ids=,,, désactiver_vga=1

Que faire si mon GPU n'utilise toujours pas le pilote VFIO même après avoir configuré VFIO ?

Même après avoir tout fait correctement, si votre GPU n'utilise toujours pas le pilote VFIO, vous devrez essayer de démarrer Proxmox VE avec les options du noyau qui désactivent le framebuffer vidéo.

Sur Proxmox VE 7.1 et versions antérieures, le nofb nomodeset video=vesafb:off video=efifb:off video=simplefb:off les options du noyau désactivent le framebuffer GPU pour votre serveur Proxmox VE.

Sur Proxmox VE 7.2 et versions ultérieures, le initcall_blacklist=sysfb_init L'option du noyau fait un meilleur travail en désactivant le framebuffer GPU pour votre serveur Proxmox VE.

Ouvrez le fichier de configuration du chargeur de démarrage GRUB /etc/default/grub fichier avec l'éditeur de texte nano avec la commande suivante :

$ nano /etc/default/grub

Ajouter l'option noyau initcall_blacklist=sysfb_init à la fin de GRUB_CMDLINE_LINUX_DEFAULT .

Une fois que vous avez terminé, appuyez sur + X suivi de ET et pour enregistrer le fichier et assurez-vous de mettre à jour le chargeur de démarrage Proxmox VE GRUB pour que les modifications prennent effet.

Le GPU Passthrough n'a montré aucune erreur, mais j'obtiens un écran noir sur le moniteur connecté au GPU transmis à la machine virtuelle Proxmox VE, pourquoi ?

Une fois que vous avez transmis un GPU à une machine virtuelle Proxmox VE, assurez-vous d'utiliser le Défaut Carte graphique avant de démarrer la machine virtuelle. De cette façon, vous pourrez accéder à l'affichage de la machine virtuelle à partir de l'interface utilisateur de gestion Web de Proxmox VE, télécharger le programme d'installation du pilote GPU sur la machine virtuelle et l'installer sur la machine virtuelle.

Une fois le pilote GPU installé sur la machine virtuelle, l'écran de la machine virtuelle s'affichera également sur le moniteur connecté au GPU que vous avez transmis à la machine virtuelle.

Une fois le pilote GPU installé sur la machine virtuelle et l'écran de la machine virtuelle affiché sur le moniteur connecté au GPU (transmis à la machine virtuelle), éteignez la machine virtuelle et définissez le Affichage Carte graphique de la machine virtuelle à aucun .

Une fois que vous êtes configuré, la prochaine fois que vous allumerez la machine virtuelle, l'écran de la machine virtuelle sera affiché sur le moniteur connecté au GPU (transmis à la machine virtuelle) uniquement, rien ne sera affiché sur le site Web de Proxmox VE. interface utilisateur de gestion. De cette façon, vous aurez la même expérience que si vous utilisiez un véritable ordinateur même si vous utilisez une machine virtuelle.

N'oubliez pas, n'utilisez jamais SPICE, VirtIO GPU et VirGL GPU Display Carte graphique sur la machine virtuelle Proxmox VE que vous configurez pour le relais GPU car elle présente un risque élevé d'échec.

Qu'est-ce qu'un bug de réinitialisation du fournisseur AMD et comment le résoudre ?

Les GPU AMD ont un bug bien connu appelé « bug de réinitialisation du fournisseur ». Une fois qu'un GPU AMD est transmis à une machine virtuelle Proxmox VE et que vous éteignez cette machine virtuelle, vous ne pourrez plus utiliser le GPU AMD dans une autre machine virtuelle Proxmox VE. Parfois, votre serveur Proxmox VE ne répond plus. C'est ce qu'on appelle le « bug de réinitialisation du fournisseur » des GPU AMD.

La raison pour laquelle cela se produit est que les GPU AMD ne peuvent pas se réinitialiser correctement après avoir été transmis à une machine virtuelle. Pour résoudre ce problème, vous devrez réinitialiser correctement votre GPU AMD. Pour plus d'informations sur l'installation de la réinitialisation du fournisseur AMD sur Proxmox VE, lire cet article et lisez ce fil sur le forum Proxmox VE . Aussi, consultez la page GitHub de réinitialisation du fournisseur .

Comment fournir un vBIOS pour le GPU transmis sur une machine virtuelle Proxmox VE ?

Si vous avez installé le GPU sur le premier emplacement de votre carte mère, vous ne pourrez peut-être pas passer par défaut le GPU dans une machine virtuelle Proxmox VE. Certaines cartes mères masquent par défaut le vBIOS du GPU installé sur le premier emplacement, ce qui explique pourquoi le GPU installé sur le premier emplacement de ces cartes mères ne peut pas être transmis aux machines virtuelles.

La solution à ce problème consiste à installer le GPU sur le deuxième emplacement de la carte mère, à extraire le vBIOS du GPU, à installer le GPU sur le premier emplacement de la carte mère et à transmettre le GPU à une machine virtuelle Proxmox VE avec le fichier extrait. vBIOS du GPU.

Pour apprendre à extraire le vBIOS de votre GPU, lire cet article .

Une fois que vous avez obtenu le vBIOS pour votre GPU, vous devez stocker le fichier vBIOS dans le /usr/share/kvm/ répertoire de votre serveur Proxmox VE pour y accéder.

Une fois le fichier vBIOS de votre GPU stocké dans le /usr/share/kvm/ répertoire, vous devez configurer votre machine virtuelle pour l'utiliser. Actuellement, il n'existe aucun moyen de spécifier le fichier vBIOS pour les périphériques PCI/PCIE des machines virtuelles Proxmox VE à partir de l'interface utilisateur de gestion Web Proxmox VE. Vous devrez donc tout faire à partir du shell/ligne de commande Proxmox VE.

Vous pouvez trouver les fichiers de configuration de la machine virtuelle Proxmox VE dans le /etc/pve/qemu-server/ répertoire de votre serveur Proxmox VE. Chaque machine virtuelle Proxmox VE possède un fichier de configuration dans ce répertoire au format .conf .

Par exemple, pour ouvrir le fichier de configuration de la machine virtuelle Proxmox VE (pour modification) pour l'ID de machine virtuelle 100, vous devrez exécuter la commande suivante :

$ nano /etc/pve/qemu-server/100.conf

Dans le fichier de configuration de la machine virtuelle, vous devrez ajouter romfile= dans le hôtepciX ligne qui se charge de transmettre le GPU sur la machine virtuelle.

Par exemple, si le nom de fichier vBIOS de mon GPU est gigaoctet-nvidia-1050ti.bin , et j'ai passé le GPU sur le premier slot (slot 0) de la machine virtuelle ( hôtepci0 ), puis dans le 100.conf fichier, la ligne doit être la suivante :

hostpci0 : ,x-vga=on,romfile=gigabyte-nvidia-1050ti.bin

Une fois que vous avez terminé, enregistrez le fichier de configuration de la machine virtuelle en appuyant sur + X suivi de ET et , démarrez la machine virtuelle et vérifiez si le relais GPU fonctionne.

Que faire si certaines applications bloquent la machine virtuelle Windows Proxmox VE ?

Certaines applications telles que GeForce Experience, Passmark, etc. peuvent faire planter les machines virtuelles Proxmox VE Windows. Vous pouvez également rencontrer un écran bleu de mort soudaine (BSOD) sur vos machines virtuelles Windows Proxmox VE. La raison pour laquelle cela se produit est que la machine virtuelle Windows peut essayer d'accéder aux registres spécifiques au modèle (MSR) qui ne sont pas réellement disponibles et, selon la façon dont votre matériel gère les requêtes MSR, votre système peut planter.

La solution à ce problème consiste à ignorer les messages MSR sur votre serveur Proxmox VE.

Pour configurer les MSR sur votre serveur Proxmox VE, ouvrez le /etc/modprobe.d/kvm.conf fichier avec l'éditeur de texte nano comme suit :

$ nano /etc/modprobe.d/kvm.conf

Pour ignorer les MSR sur votre serveur Proxmox VE, ajoutez la ligne suivante au champ /etc/modprobe.d/kvm.conf déposer.

options kvm ignore_msrs=1

Une fois les MSR ignorés, vous pouvez voir de nombreux messages d'avertissement concernant les MSR dans votre journal système dmesg. Pour éviter cela, vous pouvez ignorer les MSR et désactiver la journalisation des messages d'avertissement des MSR en ajoutant la ligne suivante :

options kvm ignore_msrs=1 report_ignored_msrs=0

Une fois que vous avez terminé, appuyez sur + X suivi de ET et pour sauver le /etc/modprobe.d/kvm.conf fichier et mettre à jour les initramfs de votre serveur Proxmox VE pour que les modifications prennent effet.

Comment résoudre les problèmes de crépitement/casse audio HDMI sur les machines virtuelles Proxmox VE Linux ?

Si vous avez transmis le GPU à une machine virtuelle Linux Proxmox VE et que vous obtenez une mauvaise qualité audio sur la machine virtuelle, vous devrez activer MSI (Message Signal Interrupt) pour le périphérique audio sur la machine virtuelle Proxmox VE.

Pour activer MSI sur la machine virtuelle Linux Proxmox VE, ouvrez le /etc/modprobe.d/snd-hda-intel.conf fichier avec l'éditeur de texte nano sur la machine virtuelle avec la commande suivante :

$ sudo nano /etc/modprobe.d/snd-had-intel.conf

Ajoutez la ligne suivante et enregistrez le fichier en appuyant sur + X suivi de ET et .

options snd-hda-intel activate_msi=1

Pour que les modifications prennent effet, redémarrez la machine virtuelle Linux avec la commande suivante :

$ sudo redémarrage

Une fois la machine virtuelle démarrée, vérifiez si MSI est activé pour le périphérique audio avec la commande suivante :

$ sudo lspci -vv

Si MSI est activé pour le périphérique audio sur la machine virtuelle, vous devriez voir la ligne marquée dans les informations sur le périphérique audio.

Comment mettre à jour les initramfs de Proxmox VE ?

Chaque fois que vous apportez des modifications aux fichiers dans le /etc/modules-load.d/ et /etc/modprobe.d/ répertoires, vous devez mettre à jour les initramfs de votre installation Proxmox VE 8 avec la commande suivante :

$ update-initramfs -u -k tout

Une fois les initramfs de Proxmox VE mis à jour, redémarrez votre serveur Proxmox VE pour que les modifications prennent effet.

$ redémarrer

Comment mettre à jour le chargeur de démarrage Proxmox VE GRUB ?

Chaque fois que vous mettez à jour le fichier de configuration de démarrage de Proxmox VE GRUB /etc/default/grub , vous devez mettre à jour le chargeur de démarrage GRUB pour que les modifications prennent effet.

Pour mettre à jour le chargeur de démarrage Proxmox VE GRUB avec les nouvelles configurations, exécutez la commande suivante :

$ mise à jour-grub2

Une fois le chargeur de démarrage GRUB mis à jour avec la nouvelle configuration, redémarrez votre serveur Proxmox VE pour que les modifications prennent effet.

$ redémarrer

Conclusion

Dans cet article, nous avons abordé certains des problèmes de passthrough PCI/PCIE et GPU les plus courants de Proxmox VE, ainsi que les étapes que vous pouvez suivre pour résoudre ces problèmes.

Les références

  1. [TUTORIEL] – PCI/GPU Passthrough sur Proxmox VE 8 : Installation et configuration | Forum d'assistance Proxmox
  2. Guide ultime du débutant sur le passage GPU Proxmox
  3. Lecture et écriture de registres spécifiques au modèle sous Linux
  4. Le guide des pilotes MSI HOWTO — La documentation du noyau Linux