Installation de vSphere 6.5 dans Proxmox

Chap 1. Configuration d’un serveur DNS-DHCP avec Zentyal
Chap 2. Installation de vSphere 6.5 dans Proxmox

Chap 2. Installation de vSphere 6.5 dans Proxmox

L’installation de vSphère 6.5 dans proxmox n’est peut être pas évident pour tout le monde. C’est pour celà que j’écris cet article.

Avant d’aller plus loin, je tiens à préciser quelques points.

Primo, vous pouvez télécharger gratuitement la suite vSphère sur le site de VMware. Noter que le produit nécessite une license, une fois la période d’essai gratuite de 60 jours terminée.
Secondo, il n’est plus nécessaire d’installer vCenter dans un serveur Windows. Il faut l’installer comme une machine virtuelle à part entière.
Tertio, je tiens à rappeler que j’utilise debian 9.1 sur un macbook pro. Du coup, j’ai rencontré des soucis lorsqu’il fallait appuyer sur la touche F11 du clavier pour valider l’installation de l’ESXi. Bizarrement, c’est la seule touche en combinaison avec fn, qui n’est pas reconnue, puisque F2 et F9 le sont. Même soucis avec un clavier externe attaché au Mac. Il m’a fallut utiliser un PC/linux pour continuer et terminer l’installation.

I. Préparation est installation du serveur ESXi

Je pars du principe que vous avez installé Proxmox sur un ordinateur ou un serveur dédié avec au moins 16GB de mémoire physique.

Créez une machine virtuelle principale pour acceuillir le serveur ESXi, avec les spécifications suivantes.

CPU >= 2 (type: host)
RAM >= 10GB
Local disk0 >= 2GB (format VMDK)
Local disk1 >= 25GB (format VMDK)
Network: VMXNET3
OS: Other OS types

Ajouter un deuxième disque dur pour l’installation du serveur vCenter.


Ici, j’ai pris la taille du disque proposée par défaut, qui est de 35GB.

Une fois la machine virtuelle prête, vous pouvez vous lancer dans l’installation du serveur ESXi.

Concernant les adresses IP à appliquer aux serveurs, il est fortement conseillé d’utiliser une adresse IP statique.

Une fois l’installation terminée, formater le deuxième disque afin qu’il soit utilisable pour l’installation de vCenter. Pour celà, il suffit de taper l’adresse IP du serveur ESXi dans votre navigateur internet.

II. Installation du serveur vCenter

Comme je le disais dans le titre, il est maintenant possible d’installer vCenter à partir d’une machine tournant sous linux, mais cependant pas avec n’importe quelles distributions. Il faut utiliser Ubuntu ou Suse linux.

Je me suis donc créé une machine virtuelle Ubuntu dans Proxmox, puis j’ai lancé le fichier d’installation de vCenter. Ce; tte étape peut se faire en deux étapes. Une fois la première étape terminée, vous pouvez poursuivre l’installation à une date ultérieure, puis de reprendre à partir de la deuxième étape en entrant dans l’URL de votre navigateur l’adresse IP du serveur vCenter.

Étape 1:


En production, il est fortement recommandé d’ajouter un serveur via son nom de domaine au lieu de l’adresse IP. Je vous explique comment faire à la troisième partie de ce chapitre.

Comme je n’ai pas configuré de serveur DNS lors de cette manipulation, et surtout que c’est un lab, je peux donc me permettre d’utiliser l’adresse IP comme solution temporaire.


Note: Je viens de terminer un article expliquant comment configurer un serveur DNS. Je vous renvoie sur cette page pour voir comment procéder.


Étape 2:
Accéder à l’interface du vCenter à partir de son adresse IP. Vous allez constater qu’il vous faut du flash! Et oui, sans flash vous pouvez toujours utiliser l’interface en HTML5, mais avec des fonctionnalitées limitées.

Heureusement, le problème avec flash sera définitivement résolu d’ici 2020, finalement! Adobe a annoncé officiellement que flash sera retiré du marché après cette date:

« as open standards like HTML5, WebGL and WebAssembly have matured over the past several years, most now provide many of the capabilities and functionalities that plugins pioneered and have become a viable alternative for content on the web. (…) Adobe is planning to end-of-life Flash. Specifically, we will stop updating and distributing the Flash Player at the end of 2020 and encourage content creators to migrate any existing Flash content to these new open formats. »

III. Note concernant l’installation du vCenter via Ubuntu, une fois le serveur DNS/DHCP configuré

Dans la première partie de cet article, je vous ai expliqué comment installer un serveur vCenter lorsqu’on n’a pas de serveur DNS en place. Dans cette partie, nous allons en tenir compte de la présence de Zentyal, qui sera notre serveur DNS sur le réseau (cf. chap 1).

Avant de procéder à l’installation du serveur vCenter, je tiens à rappeler que j’utilisez un nom de domaine en .local (mylab.local). Celà pose un problème lorsqu’on utilise la version bureau de Ubuntu qui, utilise un serveur DNS en local (Avahi), et qui, lui aussi traduit les noms de domaines du type le-nom-de-mon-hote.local en adresse IP.

administrator@budgie:~$ ping debian.local
PING debian.local (192.168.1.10) 56(84) bytes of data.
64 bytes from 192.168.1.10 (192.168.1.10): icmp_seq=1 ttl=64 time=2.36 ms
64 bytes from 192.168.1.10 (192.168.1.10): icmp_seq=2 ttl=64 time=1.31 ms
^C
--- debian.local ping statistics ---
2 packets transmitted, 2 received, 0% packet loss, time 1001ms
rtt min/avg/max/mdev = 1.317/1.838/2.360/0.523 ms

Par contre,

administrator@budgie:~$ ping esxi-01.mylab.local
ping: esxi-01.mylab.local: Name or service not known

 

Et ceci, malgré le fait que la résolution de noms se fait sans problème.

administrator@budgie:~$ host esxi-01.mylab.local
esxi-01.mylab.local has address 192.168.1.51

Si vous vous décidez tout de même à lancer l’installation de vCenter sans prendre compte les alertes ci-dessus, vous allez recevoir un message d’erreur de type:

error: Could not get certificate fingerprint from host, esxi01.mylab.local: Error: getaddrinfo ENOTFOUND esxi01.mylab.local esxi01.mylab.local:443

Pour comprendre ce problème, jettons un coup d’oeil au fichier /etc/nsswitch.conf. Si je m’intéresser à ce fichier, ce n’est pas par hasard puisque les services comme dig, host, nslookup, etc. y font référence pour résoudre les noms de domaines via la commande getaddrinfo.

Si je reprends l’explication de Wikipedia concernant le fichier NSS (Name Service Switch), ce fichier « autorise le remplacement des traditionnels fichiers Unix de configuration (par exemple /etc/passwd, /etc/group, /etc/hosts) par une ou plusieurs bases de données centralisées ».

hosts: files mdns4_minimal [NOTFOUND=return] resolve [!UNAVAIL=return] dns myhostname

La partie qui nous intéresse dans ce fichier est la partie au niveau de la ligne hosts. La recherche d’information via les commandes comme ping, nslookup, etc., se fait en lisant la ligne de gauche à droite.

  1. files traduit les noms d’hôtes statics via le fichier /etc/hosts
  2. mdns4_minimal traduit les noms de domaines en passant par le multicast DNS (mDNS)
  3. [NOTFOUND=return] signifie que, si la requête juste avant cette commande (ici, une requête mDNS) renvoie une réponde de type notfound, alors le système n’essaie pas d’autre méthode pour résoudre le nom de domaine
  4. dns, comme vous pouvez vous en doutez, traduit les noms de domaine à la façon traditionnelle

Le problème que j’ai rencontré plus haut s’explique par le fait que la recherche du nom de domaine est enclenchée par mDNS, puisque c’est la première requête DNS rencontrée au niveau de la ligne host. Puis la recherche s’arrête net et sans passer par notre serveur DNS puique, si l’on regarde le fqdn qui est esxi-01.mylab.local, mDNS recherche dans sa base de donnée s’il n’y a pas un nom d’hôte ayant pour nom esxi-01.mylab. Comme il n’y a rien de tel, la recherche s’arrête et ne va pas plus loin que [NOTFOUND=return].

Pour régler ce problème, placer dns avant mdns.

hosts: files dns [NOTFOUND=return] resolve [!UNAVAIL=return] mdns4_minimal myhostname

C’est une méthode parmis tant d’autre, et c’est ce que je recommande vivement de suivre.

Pour plus d’information concernant le multicast DNS, je vous renvoie à ces articles:

https://wiki.archlinux.org/index.php/avahi
https://doc.ubuntu-fr.org/zeroconf
https://fr.wikipedia.org/wiki/Avahi_(logiciel)

Publicités

Migration de VMs VirtualBox vers Proxmox

Comment migrer des machines virtuelles de VirtualBox vers Proxmox?

Je vais essayer de vous aider à le faire, à travers ce chapitre. Ce n’est pas difficile à faire, une fois qu’on a compris le principe.

I. Préparation des VMs sous virtualbox

« Clonezilla est un logiciel libre de restauration de données, de clonage de disque, et de création d’image de disque. » (wikipedia)

Voici un petit récapitulatif des matériaux et logiciels utilisés pour cette migration.

– Serveur Physique (HP Proliant Gen 8, OS: Proxmox)
– Machine hôte (Macbook Pro 2010, OS: Debian, serveur SSH activé, Virtualbox)
– VMs (OS: Debian) à migrer
– Live CD (clonezilla-live-2.5.0-25-amd64.iso)

1. Connection SSH

Noter l’adresse IP de la machine hôte, puisqu’on va s’en servir pour une connection SSH à partir de la machine virtuelle, ainsi qu’à partir de Proxmox.

20170522-074707

De ce fait, vérifier que le serveur SSH est installé sur votre ordinateur. Si ce n’est pas le cas, faites le.

# apt-get install openssh-server

Puis vérifier que SSH est activé.

# service ssh status
# service ssh start

Ensuite, configurer ssh pour autoriser l’accès à partir de n’importe quel machine de votre réseau.

$ sudo vim /etc/ssh/sshd_config
PasswordAuthentication yes
PermitRootLogin yes

$ sudo service ssh restart

Notez bien que cette étape n’est pas la bonne pratique à utiliser avec SSH. Pour plus d’information sur comment sécuriser votre accès SSH, je vous renvoir à ce chapitre.

2. Préparation des machines virtuelles

Démarrer la machine virtuelle à migrer, puis vérifier que vous pouvez accéder à la machine hôte en SSH.

Si telnet n’est pas installé sur cette VM, les deux méthodes suivantes permettent de vous confirmer si le port 22 (SSH) est ouvert ou non.

$ cat < /dev/tcp/192.168.1.10/22
SSH-2.0-OpenSSH_6.7p1 Debian-5+deb8u3
^C

$ nc -zv 192.168.1.10 22
[192.168.1.10] 22 (ssh) open

Arrêter ensuite la machine virtuelle pour la suite.

3. Clonezilla

Créer un dossier du même nom que l’outil utilisé, Clonezilla par exemple, dans lequel vous allez placer les images créées par cet outil. Ceci vous permettra d’y accéder plus tard en SSH, en tant qu’utilisateur et non en tant que root.

$ mkdir /home//Clonezilla

Télécharger ensuite le live CD de clonezilla que vous pouvez trouver ici, puis démarrer la machine virtuelle à migrer avec.

J’ai omis certaines captures d’écran, dont les options sont restées par défaut, afin de ne garder que l’essentiel.

Une fois arrivé au niveau de la page « Mount Clonezilla Image directory » choisissez SSH pour accéder à la machine hôte, pour y placer l’image créée par Clonezilla.

Choisissez le mode DHCP afin de ne pas vous prendre la tête à configurer la carte réseau de cette VM.

Taper ensuite l’adrese IP de la machine hôte.

Et enfin, entrez le chemin pour accéder au dossier /home//Clonezilla créé précédement.

Taper « yes » pour continuer, puis entrer le mot de passe de l’utilisateur.

La connection SSH étant établi, Clonezilla peut maintenant se lancer dans la création d’une copie de l’image du VM. Le mode Beginner (débutant) est amplement suffisant. Par contre pour clôner le VM, il faut choisir le mode Expert, que nous allons voir plus loin dans ce chapitre. Donc patience!

Pour le nom de l’image, je vous conseille de choisir quelque chose qui peut vous indiquer la nature du VM, et plus particulièrement si vous avez plusieurs VMs à migrer, afin de savoir laquelle fait quoi.

Une fois l’image créée, il n’y a aucune raison d’allumer la machine virtuelle dans Virtualbox.

Au niveau de l’écran suivant, taper sur la touche « Entrée »pour continuer, puis entrer « y ».

Et voilà, la création de l’image du VM est lancée. La procédure peut prendre du temps en fonction de la taille du disque à copier.

Entre temps, vous pouvez vous occuper de la création de la machine virtuelle sous Proxmox.

II. Préparation de la machine sous Proxmox

Dans le disque local de Proxmox, télécharger une copie de du live CD de clonezilla, qu’on va utiliser pour démarrer la nouvelle machine virtuelle.

Concernant cette nouvelle VM, il faut qu’elle ait la même taille auquel il faut ajouter quelques Go d’espace supplémentaire.

Vérifions dans ce cas, les informations de notre VM dans le Virtualbox.

Comme vous pouvez le voir, ma VM fait 20Go. Il va falloir que je créee une machine avec Promox, de 21Go au moins.

1. Préparation de la nouvelle VM

Créer une machine virtuelle en cliquant en haut à droite sur « Create VM ».

Dans l’écran de création du VM, vous avez plusieurs onglets, dont le premier vous demande de renseigner les informations concernant cette nouvelle machine(Nom de la machine, etc.).

Dans l’onglet « General », il n’y a que le nom du VM à remplir. Cette case peut être laissée vide, mais Proxmox va choisir un nom générique pour votre machine.

Dans l’onglet OS, choisissez le système d’exploitation ou la version du noyau pour les machines sous linux.

Dans l’onglet CD/DVD, sélectionner l’image ISO du live CD de Clonezilla.

Dans l’onglet « Hard Disk »,
– Choisissez l’option VirtIO
– Valider la taille du disque de la VM (20Go + 1Go)
– Cocher la case « Discard » si vous utilisez des disques physiques SSD. Si ce n’est pas le cas, donc nul besoin de cette option

Dans l’onglet CPU, l’option par défaut me convient.

Dans l’onglet Memory, j’ai choisi une taille de mémoire moins importante que celle de ma machine virtuelle dans virtualbox.

Dans l’onglet Network, j’ai gardé les informations par défaut.

Pour information, VirtIO est l’équivalent du GuestOS avec la technologie de vmware.

Et voilà, la VM est prête. Si plus tard, vous n’êtes pas satisfait de votre configuration, vous pouvez toujours modifier les informations des VMs (taille de la mémoire, nombres de processeurs, etc.) comme avec Virtualbox.

2. Migration du/des VMs

Lancer la VM dans proxmox.

Pareil que dans la première étape de création de l’image, connectez vous en SSH à la machine hôte, pour récuperer l’image de la VM créée par Clonezilla.

Puis passer en mode expext pour installer cette image vers la nouvelle destination.

Choisissez ensuite l’option « restoredisk » qui, comme son nom l’indique, permet de restaure un disque. Ce n’est pas tout à fait notre cas, mais ceci pour vous dire que c’est la même procédure à suivre pour restaurer un disque à partir d’une sauvegarde, ou pour la migration de VMs.

Ensuite, il vous sera posée la question de quelles VMs vont être restaurer. D’où l’intérêt d’avoir choisi un nom d’image bien spécifique afin de pouvoir choisir le bon parmi la liste des images dans le même dossier.

Vous ne devriez pas avoir à choisir l’emplacement de la cible.

Dans cette partir, laisser les options choisis par défaut.

De même pour la suivante.

Finalement, choisissez de redémarrer la VM une fois la migration terminée, et de vérifier que tout est bon.

Et voilà, la migration commence.

Taper « y » pour continuer.


Une fois le processus de migration terminée, la VM va redémarrer.

Si tout s’est bien déroulé, la VM devrait démarrer sans problème.

Je n’ai eu aucun problème pour migrer les VMs tournant sous Debian, comme vous pouvez le voir ci-dessus. Par contre, j’ai eu droit à un écran noir avec la machine tourant sous Manjaro. Je n’ai pas chercher à comprendre d’où vient le problème, mais je préfère prévenir au cas où.

Sources

SSH – Debian wiki
How to user SSH to connect to a Remote Server in Ubuntu
Sécuriser votre rpi
Test if a port on a remote system is reachable (without telnet)
Proxmox « no backup », « discard », « iothread »
Proxmox options for Hard disk and CPU tab
how to use clonezilla to backup hard drive and create recovery iso image
restore an image of a hard drive using clonezilla

LFS: Linux From Scratch

Avant de commencer, je vous recommande de voir la presentation ci-dessous.

Pour la suite, je vous propose de vous aidez de support videos, il y en a pas mal sur internet comme ici par exemple, surtout si vous ne vous sentez pas a l’aise dans les manipulation a faire.

Honètement, il n’y a rien à rajouter par rapport à ce qui est décrit dans la documentation quoique, la documentation en français est bien faite et bien traduite par la même occasion, mais il y a eu une ou deux passage où j’ai rencontré des approximations au niveau de la traduction qui peut rendre le texte incohérent parfois incompréhensible. Je vous recommande vivement de n’utiliser que le manuel officiel en anglais et de garder celui en français sous le coude au cas où.

Autre chose, tous les paquets à utiliser au cours des differents chapitres se trouvent ici. Il n’y a besoin d’aller les cherchers ailleurs. Cependant, vu que je vais créer mon système LFS à partir d’une machine virtuelle – VMware Workstation 9 (Pas taper .. :) ), il y a quelques recommandations, non cité dans le manuel, à suivre et que je vais vous partager plus bas.

Ma dernière recommandation serait: « FAITES DES SNAPSHOTS SANS MODERATION » tant que vous avez assez d’espace disque sur votre ordinateur!

Je ne vais pas citer tous les problemes que j’ai rencontré durant l’installation de LFS. Je vais juste me limiter aux trois points ci-dessous.

1. « File not found », apres avoir selectionne LFS 7.2 lors du boot.

Petite mise-au-point: Au niveau du chapitre Utilisez GRUB pour paramétrer le processus de démarrage, avec la version 2 du Grub, il n’y a pas besoin de créer le fichier de configuration grub.cfg  et encore moins d’écraser celui existant. Par contre, il vous faut revenir dans la console du système hôte à partir duquel vous allez créer votre LFS, Debian dans mon cas, puis de taper la commande

# update-grub

Cela mettra a jour la liste dans Grub, et de ce fait vous n’aurez pour le probleme de « File not found ».

2. Système bloqué au niveau de « rest_init+0x60/0x60 » lors du demarrage de LFS:


L’article ici  nous donne plus d’information sur ce qui se passe:

—————————————————–
CPU: 0 PID: 1 Comm: swapper/0 Not tainted 3.10.10 #1
Hardware name: VMware, Inc. VMware Virtual Platform/440BX Desktop Reference Platform, BIOS 6.00 07/02/2012

!———sortie tronquee———-!

ret_from_kernel_thread+Ox1b/0x28
? rest_init+0x60/0x60
——————————————————

Apparement il y a un probleme de driver vmware, et plus precisement c’est un probleme avec le disque dur virtuel en SCSI qui est configure avec LSI Logic comme recommande par VMware.

 Pour resoudre ce probleme ainsi que d’autres problèmes liés à la virtualisation, on doit passer par une recompilation du noyau. Mais avant cela, configurez le fichier .config comme suit:

3. « Starting system log daemon » fail

Cà y est, on y est presque. Le systeme sysklogd doit etre recompilé et tout devrait rentrer dans l’ordre.

Pour le problème d’interface eth0, il ‘ny a pas besoin de configurer l’interface réseau comme decrit ici, cela vous evitera d’avoir un probleme avec le fichier « 70-persistent-net.rules » inexistant.

Et pour fini, le seul compte qui existe est celui de Root. N’oubliez pas de personaliser le mot de passe.

Et voila, j’espère que ce retour d’expérience vous est utile. Bonne chance pour la suite.

Note1:

J’ai installé Debian 32 bits comme recommandé dans le manuel, sur un disque de 13Go dont 11Go pour /, 1Go pour /home et 850Mo pour le Swap. (Je ferai d’autres tests avec une architecture 64bits Debian et kFreeBSD).

Pour LFS , j’ai choisi de l’installer sur un disque dur à part, de 10Go.

Notez que la partition /boot (150 MB) est une partition a part et qui sera commune aux deux systèmes d’exploitation.

Note2:

Les commandes pour se connecter en mode chroot sont a noter sur un sticky, vous en aurez souvent besoin pour aller jusqu’au bout du manuel, mon petit doigt me le dit.

Montez les differentes partitions:

echo $LFS
export LFS=/mnt/lfs

mount -v -t ext4 /dev/sdb1 $LFS

mount -v –bind /dev $LFS/dev

mount -vt devpts devpts $LFS/dev/pts -o gid=5,mode=620
mount -vt proc proc $LFS/proc
mount -vt sysfs sysfs $LFS/sys

if [ -h $LFS/dev/shm ]; then
  link=$(readlink $LFS/dev/shm)
  mkdir -p $LFS/$link
  mount -vt tmpfs shm $LFS/$link
  unset link
else
  mount -vt tmpfs shm $LFS/dev/shm
fi

A partir du chapitre 6.66 et jusqu’a la fin du manuel, se connecter en mode chroot:

chroot « $LFS » /usr/bin/env -i \
    HOME=/root TERM= »$TERM » PS1=’\u:\w\$ ‘ \
    PATH=/bin:/usr/bin:/sbin:/usr/sbin \
    /bin/bash –login 

Demontez les differentes partitions avant de redemarrer le systeme:

umount -v $LFS/dev/pts

if [ -h $LFS/dev/shm ]; then
  link=$(readlink $LFS/dev/shm)
  umount -v $LFS/$link
  unset link
else
  umount -v $LFS/dev/shm
fi

umount -v $LFS/dev
umount -v $LFS/proc
umount -v $LFS/sys

umount -v $LFS

shutdown -r now

Note3:

Ce n’est pas de la moindre importance, mais on connaît ou on ne connaît pas. Voici les commandes à connaître pour décompresser les différents types de fichiers:

ZIP:                  unzip archive_name.zip
TAR:                 tar -xvf archive_name.tar
TAR.GZ/TGZ: tar -zxvf archive_name.tar.gz
TAR.BZ2:         tar -jxvf archive_name.tar.bz2
 XZ:                   tar -Jxvf archive_name.xz

VMware Tools: The path "" is not a valid path – MAJ pour Ubuntu 13.04

Ceci est une mise a jour de mon fil datant du 29 dec 2012, qui ne marche plus avec la version 13.04 d’Ubuntu. J’ai fait quelques recherches sur le net, et la solution qui me convient le mieux est:

cd /lib/modules/$(uname -r)/build/include/linux
sudo ln -s ../generated/utsrelease.h
sudo ln -s ../generated/autoconf.h
sudo ln -s ../generated/uapi/linux/version.h 

Note
Il est a note que le drag-and-drop a l’air de fonctionner correctement pour l’echange de fichiers a partir d’un bureau windows (7, je n’ai pas verifie pour les autres versions) et linux (ubuntu dans mon cas).

Source
Installing VMWare tools on Ubuntu 13.04

VMware Tools: The path "" is not a valid path

Si vous aussi, avez rencontré un message comme ceci:

Searching for a valid kernel header path…
The path «  » is not a valid path to the 3.5.0-17-generic kernel headers.
Would you like to change it? [yes] ^C Execution aborted.

Il vous faut installer

sudo apt-get install build-essential linux-headers-`uname -r` psmisc

Source
10.04 (as Guest) and VMware Tools

Debian: Problème de mise-à-jour après l’installation de VMWare

Message d’erreur

insserv: Starting vmware-USBArbitrator depends on rmnologin and therefore on system facility `$all’ which can not be true!

Pour y remédier, il faut créer deux fichiers  /etc/insserv/overrides/vmware, puis /etc/insserv/overrides/vmware-USBArbitrator et les rendre exécutables:

Contenu du fichier /etc/insserv/overrides/vmware

### BEGIN INIT INFO
# Provides:          vmware
# Required-Start:    $remote_fs $syslog
# Required-Stop:     $remote_fs $syslog
# Default-Start:     2 3 5
# Default-Stop:      2 3 5
# Short-Description: VMware VMX service for virtual machines
# Description:       Allows running of VMware virtual machines.                                    
### END INIT INFO

Contenu du fichier /etc/insserv/overrides/vmware-USBArbitrator

### BEGIN INIT INFO
# Provides:          vmware-USBArbitrator
# Required-Start:    $remote_fs $syslog vmware
# Required-Stop:     $remote_fs $syslog vmware
# Default-Start:     2 3 5
# Default-Stop:      2 3 5
# Short-Description: Start daemon when vmware starts
# Description:       Enable service provided by daemon.
### END INIT INFO

Lancer ensuite les commandes

# chmod +x /etc/insserv/overrides/vmware*
# cd  /etc/insserv/overrides
# ./vmware
# ./vmware-USBArbitrator

Source
Vmware Player Prevents Aptitude from Installing Debian Packages

Debian: Installation de VMWare Player

Il est temps d’essayer un autre outil de virtualisation. Pourquoi pas VMWare?

Installation

Après avoir récupéré le fichier VMware-Player-3.1.1-282343.x86_64.bundle, l’installation se fait tout simplement avec la commande

# sh VMware-Player-3.1.1-282343.x86_64.bundle

Installer ensuite les paquets suivants:


# aptitude install linux-headers-`uname -r` libx11-6 libx11-dev x-window-system-core x-window-system xspecs libxtst6 psmisc build-essential ia32-libs
# apt-get update
 # apt-get install linux-headers-$(uname -r)
 

Et voilou,

Mode plein écran

Pour l’utilisation en plein écran, il suffit dans un premier temps de cliquer dans la barre de menu « Virtual Machine > Install VMware tool ».

Une fois c’est fait, il faut monter le lecteur CD si ce n’est pas fait automatiquement, puis de lancer l’installation de l’outil VMWare:

# cat /etc/fstab
/dev/scd0 /media/cdrom0 udf,iso9660 user,noauto 0 0
# mount -t iso9660 /dev/scd0 /media/cdrom0
# cp /media/cdrom0/VMWareTools.tar.gz ~/
# cd ~
# tar -zxvf VMWareTools.tar.gz
# cd vmware-tools-distrib
# ./vmware-install.pl

Il ne vous reste plus qu’a appuyer sur Entrée pour valider et accepter les réponses par défaut aux questions posées.

Une fois terminée, vous pouvez redémarrer la machine virtuelle et le lancer en mode plein ecran.

Partage de fichiers

Déception, puisqu’il n’est pas possible de le faire avec la version de VMWare Player. Il faut donc passer par un serveur FTP.

Une autre  solution est proposée sur cette page [1] en manipulant directement sur le fichier .vmx.

Source

VMWare – Debian Wiki