Table des matières

, , , , , ,

Installation d'un centre multimédia de salon sécurisé

Avant-Propos

Cet article vise à fournir la démarche pour l'installation d'un ordinateur de salon avec comme préoccupations :

  1. La sécurité, à travers l'utilisation de chiffrement total de disque-dur et un renforcement de l'accès par le réseau.
  2. La performance, avec l'utilisation d'un RAID.
  3. L'accessibilité à l'usage, en optant pour une Wiimote comme outil de contrôle.
  4. TODO: Backup, backup, backup… sinon tout ça ne sert à rien!

Ce tutorial pars des pré-requis suivant :

Limites du concept

Les 2 derniers points sont déjà relativement bien traités sur Internet, ce tutoriel se concentrera donc sur la première problématique. Même si le niveau de sécurité n'est pas optimum, il représentera malgré tout un niveau qui pourra dissuader un bon nombre de personnes malveillantes. Le concept vise à placer une grande partie du système sur un support chiffré. Seul le /boot sera accessible à l'attaquant, votre machine sera donc vulnérable aux attaques de type evil maiden (en) (l'attaquant accède à votre machine pour y placer un /boot corrompu qui interceptera la clé de déchiffrement de votre système de fichiers).

Des solutions existent pour parer ces attaques mais ne serons pas mise en place dans un premier temps :

  1. La première solution consiste à placer le /boot sur un support qui ne sera pas accessible à l'attaquant ; classiquement une clef USB que vous placerez sous surveillance constante. La machine sera toujours vulnérable à une attaque de type evil maiden (en), mais compliquera considérablement la tâche de l'attaquant puisque celui-ci devra s'attaquer au GRUB ou au BIOS. Il devient plus simple de placer un keylogger matériel sur le clavier.
  2. Une deuxième solution s'appuie sur les puces dites TPM. Des mécanismes matériels entrent en scène pour s'assurer que le BIOS n'a pas été modifié, le BIOS vérifie que le GRUB n'a pas été modifié, et le GRUB vérifie que le /boot n'a pas été modifié. On obtient ainsi une chaine de confiance qui garanti que le système n'a pas été corrompu. Cette technique est complexe à mettre en place et la communauté du libre n'est pas encore enclin à promouvoir un système qui cachent aussi des effets secondaires pervers source.

Côté sécurité réseau, nous mettrons en place une protection contre les indésirables avec l'outil PeerGuardian Linux (anciennement appelé blockcontrol et encore avant, moblocker). Cet outil permet par exemple d'empêcher les connexions vers ou depuis des IPs appartenant à des sociétés qui relève les addresses IP procédant à un téléchargement illicite.

Préparation du domaine de stockage

La topologie cible est la suivante :

DISK0 : [[gpt][bios-grub][classic ][classic ][========== raid-linux ===========]]
DISK1 : [[gpt][bios-grub][classic ][classic ][========== raid-linux ===========]]
LUKS  : [                          [swapLUKS][========== LUKS contnr ==========]]
LVM   : [                                    [=========== raid0mvg ============]]
FS    : [                [= /boot=][==swap==][= / =][========= /home ==========]]

Nettoyage des support physique

Toutes les données sur vos disques seront supprimées et impossible à récupérées (même avec un logiciel de récupération). C'est un peu le but aussi.

Cette opération peut être très longue mais il est conseillé de le faire. Pour chaque disques durs, lancez cette commande qui tournera en tâche de fond :

shred --iterations=N --verbose /dev/sda &
shred --iterations=N --verbose /dev/sdb &
...

N correspond au nombre de passes de nettoyage. Adaptez cette valeur en fonction du degré de confidentialité des données présentes en clair sur le support. 1 est déjà une bonne valeur.

Partitionnement

Voici le schéma de partionnement ciblé :

Nom Taille FS Type de partition
GRUB-x 0,008 Go Vide Partition de démarrage BIOS
Boot-x 1 Go Vide Partition RAID Linux
Swap-x 1/2 à 1 votre quantité de RAM Vide Partition d'échange Linux
MyFS-x le reste Vide Partition RAID Linux

La méthode graphique

Pour le partitionnement nous allons utiliser l'utilitaire de disque, plutôt que GParted, qui nous simplifiera la vie. Lancez l'Utilitaire de disque : System > Administration > Disk Utility. Pour chacun de vos disque-durs, créez une table de partition GPT : Sélectionnez le disque > Formater le disque > Table de partitions GUID.

Pour chacun de vos disque-durs, créez ces 4 partitions dans cet ordre. Sélectionnez votre disque-dur > Cliquez sur l'espace libre > Créer une partition. Pour changez le type de partition, créez d'abord votre partition. Ensuite sélectionnez là et cliquez sur Modifier la partition.

La méthode en ligne de commande

Vous n'êtes pas bleusaille? Très bien. Débrouillez-vous avec ce bref rappel :

Action Commande
Lancer le logiciel de partionnement sudo parted /dev/sdX
Écrire une table de partitions GPT mklabel gpt
Ajouter une partition mkpart nom debut fin

Adjonction de la couche RAID

Pour assembler les grappes RAID nous avons besoin de apt://mdadm. Notre /boot sera dans un RAID1 et GRUB impose que si la partition de /boot est dans un RAID alors la version des metadata doit être la 0.90. Pour cette raison, nous n'utiliserons pas l'Utilitaire de disque pour la création du RAID (qui utilise la version 1.20). Par contre, pour le RAID qui contiendra la racine nous utiliserons les metadata version 1.20. Pourquoi? La version 0.90 place les metadata à la fin de la partition. Pour notre dernière partition, la fin de la partition correspond aussi à la fin du disque. Lorsque mdadm cherche les metadata sur le disque il peut croire que tout le disque appartient au RAID (expérience vécu). Mais utiliser la v1.20 des metadata entraine un autre problème comme l'alignement des block LUKS et LVM, ce qui peut nous empêcher d'atteindre des performances optimales. N'hésitez pas à changer votre schéma de partitions pour combiner l'utilisation de plusieurs famille de RAID par exemple.

Dans tout les cas, ne mettez pas vos partitions de swap dans un RAID. Le swap n'est pas connu pour sa séquentialité des accès, il vaut mieux avoir de petits blocs de 4ko plutôt que les 128ko tout boudinés d'un RAID…

mdadm --create /dev/md0 --metadata=0.90 --raid-devices=2 --level=1 /dev/sd[ab]2
mdadm --create /dev/md1 --metadata=1.2 --raid-devices=2 --chunk=128 --level=0 /dev/sd[ab]4

Adjonction de la couche de chiffrement

Le mode d'opération que nous allons utiliser est XTS (en), plus adapté au chiffrement de disque.

Nous n'utiliserons pas d'ESSIV (en) car XTS (en) embarque son propre mécanisme pour choisir son vecteur d'initialisation (IV). Ajouter l'ESSIV (en) apporterai un gain négligeable de protection comparé à son impact sur les performances source source officielle. Nous utiliserons du plain64 pour nos IV parce qu'en fonction de la taille de vos disques et de la taille des blocs, l'utilisation du plain(32bits) peut introduire une faille de sécurité du à la répétition des IV.

Le chiffrement que nous utiliserons est l'AES. Le chiffrage Serpent, même s'il est cryptographiquement plus sûr, est suffisamment lourd pour former un goulot d'étranglement sur le débit des disques.

Pour le container LUKS en RAID, on va utiliser l'option align-payload (qui permet de modifier la où commence les blocs de données du container) pour aligner le container avec notre RAID. Par défaut cette valeur est de 8 (secteurs x 512o = 4Ko) que nous plaçons à 512. La formule optimale est : (chunk_size/512o)*qt_data_disk. Un RAID5 de 3 disques aura une valeur de qt_data_disk de 2 un RAID0 de 3 disques aura une valeur de 3. Pensez à adapter cette valeur si vous avez personnalisé la taille du chunk de vos RAIDs.

cryptsetup luksFormat --cipher=aes-xts-plain64 --hash=sha256 --key-size=512 /dev/sda3
cryptsetup luksFormat --cipher=aes-xts-plain64 --hash=sha256 --key-size=512 /dev/sdb3
cryptsetup luksFormat --cipher=aes-xts-plain64 --hash=sha256 --key-size=512 --align-payload=512 /dev/md1

Vous pouvez maintenant déverrouiller les conteneurs LUKS pour obtenir vos partitions mappées dans /dev/mapper/ :

cryptsetup luksOpen /dev/sda3 unlocked-swapa
cryptsetup luksOpen /dev/sdb3 unlocked-swapb
cryptsetup luksOpen /dev/md1 unlocked-md1

Adjonction de la couche de gestion des volumes logiques

Les disques sont partitionnés, les RAID assemblés et les conteneurs LUKS en place et déverrouillés ; nous allons pouvoir segmenter notre espace de stockage pour y placer les système de fichiers (ou formater).

La création d'un LVM se fait en 4 petites étapes :

  1. L'installation apt://lvm2
  2. On désigne les volumes physique (disques-durs, RAIDs, conteneur LUKS déverrouillés, …) qui seront gérés par LVM.
  3. On regroupe ensuite ces volumes physiques pour former un groupe de volumes, un gros volume physique en somme.
  4. On découpe ensuite ce groupe de volumes en volumes logiques, des partitions en somme.
Même si le LVM permet de regrouper plusieurs volumes physique pour n'en former qu'un, ce n'est pas un équivalent au RAID. Le LVM se concentre sur l'exploitation logique des volumes (partionnement, redimenssionnement des partitions, augmentation de la taille d'un volume, …) tandis que le RAID se préoccupe de l'exploitation matériel (meilleurs performances, tolérance aux pannes, …)

Les 3 premières étapes se font simplement :

apt-get install lvm2
pvcreate /dev/mapper/unlocked-md1
vgcreate rootvg /dev/mapper/unlocked-md1
pvcreate est suffisamment bien foutu pour s'aligner tout seul avec votre grappe RAID.

Créons maintenant le volume logique (partition) qui accueillera la racine de notre système de fichier, ici de 80Gio :

lvcreate --name systemlv --size 80g rootvg

On veut maintenant créer un autre volume logique pour accueillir notre /home avec le reste d'espace disponible. Commençons par se renseigner sur l'espace qu'il nous reste :

>>> vgdisplay

 --- Volume group ---
 VG Name               rootvg
 System ID             
 Format                lvm2
 Metadata Areas        1
 Metadata Sequence No  2
 VG Access             read/write
 VG Status             resizable
 MAX LV                0
 Cur LV                1
 Open LV               0
 Max PV                0
 Cur PV                1
 Act PV                1
 VG Size               966,51 GiB
 PE Size               4,00 MiB
 Total PE              237187
 Alloc PE / Size       20480 / 80,00 GiB
 Free  PE / Size       226947 / 886,51 GiB
 VG UUID               bslw15-...-dsf54f

Il nous reste 226.947 PE de 4Mio soit 907788Mio. Affectons-les :

lvcreate --name homelv --size 907788m rootvg

Adjonction de la couche des systèmes de fichiers

Nous avons certes fini de créer nos partitions mais aux yeux d'Ubuntu ce sont chacune des volumes distinct. Ubuntu n'acceptera pas de s'installer sur ces volumes sans table de partitions. On va lui jouer un petit tour pour le piéger en créant nous mêmes le système de fichier. Cette étape est d'autant plus importante que nous devons de plus créer des systèmes de fichiers qui alignés à nos blocs logiques, on en profitera aussi pour désactiver la journalisation sur la partition de /boot

Cet alignement se fait en paramètrant les valeurs stride et stripe-width lors de la création du système de fichier. Les formules optimales sont :

mkfs.ext4 -b 4096 -E stride=16,stripe-width=16 -O ^has_journal -L boot /dev/md0
mkfs.ext4 -b 4096 -E stride=32,stripe-width=64 -L system /dev/mapper/rootvg-systemlv
mkfs.ext4 -b 4096 -E stride=32,stripe-width=64 -L home /dev/mapper/rootvg-homelv
mkswap /dev/mapper/unlocked-swapa
mkswap /dev/mapper/unlocked-swapb

Installation et paramétrage du système

La préparation du domaine de stockage est maintenant terminée et Ubuntu peut y être installé.

Installation d'Ubuntu

Périphérique Utiliser comme Formater? Point de montage
/dev/mapper/rootvg-homelv ext4 Non /home
/dev/mapper/rootvg-systemlv ext4 Non /
/dev/md0 ext4 Non /boot
En chargeur d'amorçage, choisissez : /dev/sda

Paramètrage des services d'amorçage

Ubuntu est sur votre RAID chiffré! sauf qu'avec toutes ces couches (RAID, LUKS et LVM), l'installateur ne s'y retrouve plus et à besoin d'un coup de pouce pour comprendre comment démarrer votre machine. Nous allons rentrer dans notre installation toute fraîche et lui expliquer tout ça.

Pour entrer, on va se chrooter ; on pourra lancer des commandes comme si nous avions démarrer notre nouvelle installation :

mount /dev/mapper/rootvg-systemlv /target
mount /dev/mapper/rootvg-homelv /target/home
mount /dev/md0 /target/boot
mount -t devpts devpts /target/dev/pts
mount -t proc /proc /target/proc
mount -t sysfs /sys /target/sys
mount --bind /dev /target/dev
chroot /target/

Notre installation ne sait démarrer ni le RAID, ni le LVM, ni le LUKS. On va devoir installer ces logiciels comme au début de notre installation :

apt-get install mdadm lvm2 cryptsetup

Lorsque la machine démarre, un mini-linux (initrd) est lancé pour en démarrer un plus gros (le notre) ensuite. Il faut que ajouter des modules à initrd pour qu'il puisse démarrer le RAID, le LVM et le LUKS. Tout ces modules vont beaucoup alourdir l'initrd jusqu'à atteindre une taille non-standard et normalement interdite. C'est pour ces raisons que nous avions utiliser GPT et des partition bios-grub au tout début. Pour ajouter les modules, éditez ce fichier comme suit:

/etc/initramfs-tools/modules
raid1
raid0
#raid5
dm-crypt
dm-mod
aes
sha256
xts
sd_mod
blkcipher

Il faut aussi faire en sorte que cet l'initrd nous demande de saisir un mot de passe pour qu'il puisse déverrouiller les conteneur.

ln --symbolic /usr/share/initramfs-tools/hooks/cryptroot /etc/initramfs-tools/hooks/
ln --symbolic /usr/share/initramfs-tools/scripts/local-top/cryptroot /etc/initramfs-tools/scripts/local-top/
touch /etc/initramfs-tools/conf.d/cryptroot

Vous vous souvenez que les partitions de swap ont chacune leurs propres conteneur LUKS? Plutôt que d'avoir à saisir à chaque démarrage leurs clefs, nous allons générer des clefs très sures (plus sure que n'importe quel mot de passe) que l'on va stocker à l'intérieur du conteneur chiffré du système (pour qu'elle ne soit pas exposées). Ainsi, lorsque l'on déverrouillera le premier conteneur chiffré les clefs seront disponible et nous déverrouilleront alors les partitions de swap. Ces commandes générer les clefs, les placent dans /etc/ssl/private puis supprime les anciens mots de passe du swap:

dd if=/dev/urandom of=/etc/ssl/private/swapa.key bs=64k count=1
dd if=/dev/urandom of=/etc/ssl/private/swapb.key bs=64k count=1
dd if=/dev/urandom of=/etc/ssl/private/system.key bs=64k count=1
cryptsetup luksAddKey /dev/sda3 /etc/ssl/private/swapa.key
cryptsetup luksAddKey /dev/sdb3 /etc/ssl/private/swapb.key
cryptsetup luksAddKey /dev/md1 /etc/ssl/private/system.key
cryptsetup luksKillSlot --key-file /etc/ssl/private/swapa.key /dev/sda3 0
cryptsetup luksKillSlot --key-file /etc/ssl/private/swapb.key /dev/sdb3 0

Vous connaissez fstab? crypttab c'est son complément pour les volumes chiffrés. Ce fichier explique où sont les conteneur chiffrés et comment le système doit les déverrouiller:

/etc/crypttab
# <target name>	<source device>					<key file>			<options>
unlocked-md1	/dev/md1					none				luks,retry=1
unlocked-swapa	UUID=x x x x -uuid- de -/dev/sda3 x x x x	/etc/ssl/private/swapa.key	luks,swap
unlocked-swapb	UUID=x x x x -uuid- de -/dev/sdb3 x x x x	/etc/ssl/private/swapb.key	luks,swap

Maintenant qu'on a bien détailler au système la procédure de démarrage, on installe le nouvelle initrd :

update-initramfs -k all -c

Vous pouvez maintenant redémarrer :)

exit
umount /target/boot
umount /target/proc
umount /target/sys
umount /target/dev/pts
umount /target/dev
umount /target/home
umount /target/
vgchange -an rootvg
cryptsetup luksClose /dev/mapper/unlocked-swapa
cryptsetup luksClose /dev/mapper/unlocked-swapb
cryptsetup luksClose /dev/mapper/unlocked-md1
reboot now

Installation des services mediacenter

Nous avons maintenant une plateforme qui démarre. Nous allons transformer cette brique chiffrée en mediacenter fonctionnel.

Script d'installation rapide:

add-apt-repository ppa:wsnipex/xbmc-xvba
add-apt-repository ppa:nginx/development
add-apt-repository ppa:deluge-team/ppa
add-apt-repository ppa:jre-phoenix/pgl-experimental
apt-get update
apt-get autoremove transmission-gtk
apt-get install ssh screen \
fglrx xbmc-standalone xbmc-eventclients-wiiremote \
nginx-full php5-fpm php5-gd php5-mysql mysql-server mysql-client \
deluged deluge-web python-pip pgld
pip install flexget
# Copier les script dans /etc/init.d/
update-rc.d deluge-daemon defaults
update-rc.d xbmc-wiiremote defaults
/etc/init.d/deluge-daemon

/etc/init.d/xbmc-wiiremote

/etc/nginx/sites-available/mediabunker

A virer:

  1. Remplacer les clef SSH. Générer de nouveaux groupes d'échanges Diffie-Hellman :
ssh-keygen -G candidates -b 4096

Tester la primalité du groupe d'échange :

ssh-keygen -f candidates -T moduli

Remplacer l'ancien groupe d'échange (/etc/ssh/moduli) par le nouveau. Vous pouvez re-générer d'avantage de groupes et les concatener ensemble pour plus de sécurité (il faut juste qu'ils soient de la même taille).

  1. Installer fail2ban
  2. wiimote 64bits :
apt-get install libbluetooth-dev g++ libcwiid1 xbmc-eventclients-common

compile, copier libwiiuse.so dans /usr/local/bin, modifier le makefile pour utiliser /usr/local/bin/libwiiuse.so, compiler

  1. aparté sur les nom de domaine (Free, dyndns, …)
  2. ajout autorité racine
  3. génération certificat SSL

Générer une clef privée RSA :

openssl genrsa -out /etc/ssl/private/transmission.4096.key 4096
openssl dhparam -out /etc/ssl/private/transmission.dh2048.key 2048
chmod o-r /etc/ssl/private/transmission.*
chown root:www-data /etc/ssl/private/transmission.*

On génère ensuite une CSR :

openssl req -new -key /etc/ssl/private/transmission.4096.key

Cette demande de signature ne dévoile pas d'informations à un attaquant cryptographiques, vous pouvez maintenant fournir cette requête de signature auprès d'une autorité de certification racine. Vous en trouverez pour quelques centaines d'euros… ou bien il y a CaCert (Open-source, soutenu par GNU) et StartSSL (privé, gratuit, d'avantage reconnu) :) Ne pas oublier de concatener les certificats de la chaine de certification au votre (de l'intermediaire le plus bas au plus haut et commencant par le votre).

  1. installer transmission-daemon : apt://transmission-daemon. Binder l'interface d'écoute en IPv6 sur le localhost à cause des listes p2p incompletes.
  2. install nginx série depuis les dépots des concepteurs (à jour et avec d'avantages d'options) :
add-apt-repository ppa:nginx/development
apt-get update
apt-get install nginx-full
/etc/nginx/sites-available/mediabunker

Activer l'accélération matérielle pour ATI (obsolète) XvBA (décompression vidéo materielle)

Protection contre les spiders indésirables

Avancé : Évoluer son RAID0 vers un RAID5/6

On l'a vu précédemment, votre système dispose en partie d'une protection contre les pannes car votre GRUB et votre /boot sont sur une grappe RAID1. Par contre, votre /home et le reste du système sont sur un RAID0 ; une partie du système est donc plus sensible à la panne (le défaut d'un seul disque d'une grappe RAID0 entraine le défaut de toute la grappe). Des solutions RAID proposent de tolérer le défaut d'un (RAID5) ou de deux disques (RAID6) sans mettre en défaut toute la grappe. De cette façon, si un disque tombe en panne vous aurez un avertissement et pourrez changer le(s) disque(s) défaillant(s) sans avoir perdu vos données!

Ce qui suit s'appuie sur un, voire deux articles de ce site.

Préparation

  1. Démarrage sur Live-CD
  2. Installation des paquets lvm2, cryptsetup et mdadm
  3. Assemblage du RAID
  4. Déverrouillage du container existant
  5. Montage du container déverrouillé

La sauvegarde

On ne peut plus convertir une grappe RAID de niveau 0 vers un autre niveau atteignable (niveaux 5 et 6, par exemple). Je vous propose d'envoyer un paquet de café d'arabica de Colombie aux développeurs de mdadm accompagné d'une requête d'ajout de fonctionnalité (ou plutôt de correction de regression par rapport à raidreconf).

Admettez qu'il serait plutôt cocasse de sauvegarder nos données si durement protégées…

  1. Formatez le conteneur déverrouillé, montez-le et transférez-y vos données
shred --iterations=N --verbose /dev/sdX
cryptsetup luksFormat --cipher=aes-xts-plain64 --hash=sha256 --key-size=512 /dev/sdX
cryptsetup luksOpen /dev/sdX unlocked-sdX
mkfs.ext4 /dev/mapper/unlocked-sdX
mkdir ./myBackup
mount /dev/mapper/unlocked-sdX ./myBackup
mkdir ./myBackup/root
mkdir ./myBackup/home
cp -axv ./mySystem/root/. ./myBackup/root/
cp -axv ./mySystem/home/. ./myBackup/home/

Une fois la sauvegarde terminée, on désactive une-à-une les couches logicielle de notre ancien RAID pour les rendre disponibles :

umount  ./mySystem/root
umount ./mySystem/home
vgchange --available n rootvg
vgremove rootvg
pvremove /dev/md1
cryptsetup luksClose unlocked-md1
mdadm --stop /dev/md1

RAID / LUKS / LVM / FileSytem

Vous pouvez maintenant reproduire l'étape de création des différentes couches logiques, RAID, LUKS et LVM. Seul la commande de création du RAID diffère : au lieu d'un RAID0 de 2 disques nous souhaitons un RAID5 de 3 disques en précisant que le 3ème disque n'est pas encore disponible (puisqu'il sert à contenir notre sauvegarde). Ce qui donne la commande :

mdadm --create /dev/md1 --metadata=1.2 --raid-devices=3 --chunk=128 --level=5 /dev/sd[ab]4 missing

Une fois que vous avez créer les autres couches, reste la création du système de fichier, le remontage et le transfère de votre sauvegarde sur votre nouvel assemblage :

mkfs.ext4 -b 4096 -E stride=32,stripe-width=64 -L system /dev/mapper/rootvg-systemlv
mkfs.ext4 -b 4096 -E stride=32,stripe-width=64 -L home /dev/mapper/rootvg-homelv
mount /dev/mapper/rootvg-systemlv ./mySystem/root
mount /dev/mapper/rootvg-homelv ./mySystem/home
cp -axv ./myBackup/root/. ./mySystem/root/
cp -axv ./myBackup/home/. ./mySystem/home/

On libère notre disque de sauvegarde pour sa future mission : intégrer la nouvelle grappe RAID.

umount  ./myBackup/root
umount ./myBackup/home
cryptsetup luksClose unlocked-sdX

Actualisation des fichiers de configuration

  1. Actualisez /etc/mdadm/mdadm.conf
  2. Updatez l'initramfs, au cas où

Intégration du nouveau disque

Pour des questions d'alignement, vous devez reproduire le même schèma de partitionnement que sur vos autres disques. Personnellement, j'affiche avec précision mon schéma de partionnement avec la commande :

parted /dev/sdX unit s print

pour ensuite les ré-appliquer sur le nouveau disque. Pour les habitués du RAID, sfdisk ne fonctionnera pas avec nos tables de partitions GPT.

Faite ensuite participer votre disque à vos grappe RAID (celle de /boot et de root) :

mdadm --grow /dev/md0 --raid-devices=3
mdadm --add /dev/md0 /dev/sdX2
mdadm --add /dev/md1 /dev/sdX4

Le système entame ensuite une phase de synchronisation qui peut être extrêmement longue. Observez patiemment l'évolution de votre synchronisation avec la commande :

watch cat /proc/mdstat

Voir aussi