Chez Mozilla
about:config
security.tls.version.min
1 => TLS 1.0
2 => TLS 1.1
3 => TLS 1.2 (actuellement par défaut)
Chez Mozilla
about:config
security.tls.version.min
1 => TLS 1.0
2 => TLS 1.1
3 => TLS 1.2 (actuellement par défaut)
Sur les 2 machines :
apt install iperf
Sur le serveur :
iperf -s
Sur le client :
iperf -c SERVER_IP
Par défaut, cela transmet du client vers le serveur (upload). On peut inverser le sens (download) avec le flag -R
.
Par défaut, le test dure 10s. Ce temps peut se controler avec le paramètre -t num_sec
.
On peut changer le port par défaut (5201) avec -p 5202
.
Un peu de lecture ici.
sudo apt install iotop
sudo iotop
Permet de voir, à la manière de top
, l’activité I/O des disques par processus. Ne distingue toutefois pas sur quel disque l’activité se produit.
sudo apt install dstat
dstat
pour avoir un aperçu général.
dstat -d -D total,sdk,md0
pour n’afficher que les infos relatives aux disques (-d
), et surveiller l’ensemble des I/O dans une colonne (-D total
), /dev/sdk dans un autre (-D sdk
)et /dev/md0 dans une autre (-D md0
).
sudo apt install sysstat
iostat
pour avoir des infos générales depuis le boot.
iostat -y 1 2
pour avoir des infos uniquement dans l’intervalle temporel spécifié ; ici : 1s, analyse répétée 2 fois (1 2
). Si le 2e chiffre n’est pas spécifié, l’analyse sera faite en boucle.
iostat -d
pour n’inclure que l’info relative aux disques.
iostat -p sdk,md0
pour n’inclure que l’info relative à ces périphériques.
iostat -t
pour inclure le timestamp
En cumulant ces options, et avec l’utilisation de watch, on tombe sur un truc comme ça :
watch -t -n 0.1 iostat -p sdk,md0 -d -t -y 1 1
sudo apt install nmon
nmon
puis presser la touche d
Très très très inspiré de ça : https://github.com/stefa2k/prysm-docker-compose
version: "3.6"
x-logging: &logging
logging:
driver: "json-file"
options:
max-file: "10"
max-size: "100m"
services:
medalla-prysm-beacon:
stop_grace_period: 1m
container_name: medalla-prysm-beacon
image: gcr.io/prysmaticlabs/prysm/beacon-chain:${PRYSM_DOCKER_TAG}
hostname: medalla-prysm-beacon
command: --config-file=/config/beacon.yaml
# --p2p-max-peers=1000
ports:
- 4000:4000
- 13000:13000/tcp
- 12000:12000/udp
volumes:
- ./config/beacon.yaml:/config/beacon.yaml:ro
- ${VOLUMES_PATH}/prysm/beacon:/data
<<: *logging
medalla-prysm-validator:
stop_grace_period: 1m
tty: true
stdin_open: true
container_name: medalla-prysm-validator
image: gcr.io/prysmaticlabs/prysm/validator:${PRYSM_DOCKER_TAG}
hostname: medalla-prysm-validator
depends_on:
- medalla-prysm-beacon
command: --config-file=/config/validator.yaml
volumes:
- ./config/validator.yaml:/config/validator.yaml:ro
- ${VOLUMES_PATH}/prysm/validator:/wallet
<<: *logging
# I use a custom defined network
networks:
default:
external:
name: eth_net
Les fichiers de config :
beacon.yaml
############################################################
##
## Read up on parameters on
## https://docs.prylabs.network/docs/prysm-usage/parameters/
##
############################################################
datadir: /data
###############
# Base settings
medalla: true
accept-terms-of-use: true
# p2p-max-peers: 1000
#######################
# Connectivity settings
p2p-host-ip: ""
p2p-host-dns: ""
rpc-host: 0.0.0.0
monitoring-host: 0.0.0.0
# disable scan of local network
p2p-denylist: ["10.0.0.0/8","172.16.0.0/12","192.168.0.0/16","100.64.0.0/10","169.254.0.0/16"]
# changing this also needs to be changed in docker-compose.yaml !
p2p-tcp-port: 13000
# enable db backup endpoint
enable-db-backup-webhook: true
##############################
# Connection to eth1 chain container
http-web3provider: http://goerlichain-hostname:8546
web3provider: ws://goerlichain-hostname:8546
validator.yaml :
############################################################
##
## Read up on parameters on
## https://docs.prylabs.network/docs/prysm-usage/parameters/
##
############################################################
##############
# Connectivity
beacon-rpc-provider: prysm-beacon-hostname:4000
monitoring-host: 0.0.0.0
##############
# Base settings
medalla: true
accept-terms-of-use: true
#####################################
# Validator accounts & key management
wallet-dir: /wallet
###########
# Fun Stuff
graffiti: "My funky graffiti !"
#############
# Performance
dev: true
block-batch-limit: 512
head-sync: true
Pour exécuter une instance du validateur pour gérer les fichiers (en adaptant les chemins de volumes) :
docker run --rm -it -v ./config/validator.yaml:/config/validator.yaml -v ${VOLUMES_PATH}/testnets/medalla/prysm/validator:/wallet --config-file=/config/validator.yaml
On peut ensuite choisir les commandes Prysm ; par exemple :
help
, qui affiche l’aideaccounts
wallet
On peut spécifier des drapeaux à la suite de cette commande, mais ils doivent être placés après les commandes de prysm.
Dans ma configuration, je ne sauvegarde le mot de passe nul part sur le disque ; il faut donc le fournir au lancement du validateur ; je recommande donc la comande suivante pour démarrer le validateur :
docker-compose up -d && docker attach medalla-prysm-validator
, puis quitter avec Ctrl+P - Ctrl+Q.
Pour lire les logs de la beacon chain, et pouvoir les filtrer par exemple via grep, il faut rediriger la sortie d’erreur vers la sortie standard :
docker logs medalla-prysm-beacon 2>&1 | grep Synced
Le wallet représente l’ensemble des fichiers gérés par Prysm. On a un seul wallet à la fois. Il peut être de type “importé” ou déterministe (“HD”), ou avec signature distante, mais je ne traite pas ce cas ici.
Un wallet HD va recréer les clés en fonction de la graine fournie/générée ; C’est pratique, mais le validateur (exposé en permanence à Internet) est en possession de la graine, c’est à dire de la possibilité d’accéder aux clés de validations, mais également aux clés de retrait qui permettent de récupérer l’ETH2 ; d’où le risque de sécurité.
Les fichiers seront stockés dans le dossier “derived”.
Un wallet importé va pouvoir traiter, 1 par 1, les fichiers fournis via la command import
(voir la section accounts). On peut donc générer nos clés de manière externe (par exemple via eth2-deposit-cli, (ou via ethdo ?)), et n’exposer que les clés de validation, d’où la sécurité augmentée.
Les fichiers seront stockés dans le dossier “direct”.
Si les dossiers “derived” et “direct” existent tous les 2, le validateur ne démarrera pas.
Les commandes :
wallet create
: permet de créer un nouveau wallet, en choisissant son type ; échouera si un wallet est déjà présent à l’emplacement indiquéedit-config
: permet de modifier la configuration d’un wallet HD uniquementrecover
: pour recréer un wallet HD dont on a déjà la grainehelp
: self-explainingUn account représente un validateur, une paire de clés. On peut avoir plusieurs validateurs actifs en même temps. On peut rajouter un ou plusieurs validateurs aux validateurs déjà actifs.
Les commandes :
create
: crée un nouveau validateur ; implique wallet create
si aucun wallet n’existe dans le dossier spécifiédelete
: permet de supprimer un ou plusieurs validateurslist
: permet de lister les validateurs actuellement actifs dans Prysmbackup
: self-explaining. Exporte clés de validation ET clés de retrait si elles sont présentes dans Prysmimport
: permet d’ajouter une clé de validateur déjà existante. Semble ne rien faire si le wallet est de type HD ; implique la création d’un wallet de type importé si aucun wallet n’existe. On doit spécifier un dossier qui contient les fichiers keystore, et taper les mots de passe ; les mots de passe peuvent être différents pour chaque keystore, il faut alors les entrer au fur et à mesure de l’importationvoluntary-exit
: permet de quitter le pool de validateurs. Il est impossible de recommencer à valider avec ces clés, et impossible de retirer ses ethers avant la phase 1, voire la phase 2.help
: self-explaininggit clone https://github.com/ethereum/eth2.0-deposit-cli.git
# ou pour la branche de dev :
git clone https://github.com/ethereum/eth2.0-deposit-cli.git -b dev
# pour installer eth2deposit module
# à refaire à chaque update pour updater le module pip3
pip3 install ./
# si besoin de changement de version, on peut désinstaller la version en conflit avec
pip3 uninstall eth2deposit
cd eth2.0-deposit-cli
./deposit.sh new-mnemonic
Si plusieurs validateurs, crée 1 deposit_data cumulatif, et plusieurs keystore.json (le nom des fichiers contient le timestamp).
On doit pouvoir ajouter l’option --chain mainnet
pour passer directement la chaine cible sans avoir à la choisir.
!!! ATTENTION A LA DOUBLE VALIDATION !!!
./deposit.sh existing-mnemonic
Choisir l’index de départ (si 2 clés ont déjà générées et que l’on souhaite en générer une nouvelle 3e, entrer 2 ; si on veut regénérer des clés dejà existantes, entrer 0 pour toutes les générer).
Choisir le nombre de clés à générer.
Les clés sont générées dans le dossier validator_keys
.
Dans eth2deposit\deposit.py
, ligne 30, hardcoder la graine à restaurer après mnemonic =
en la mettant entre apostrophes.
Les interfaces sont des configurations réseau que l’on peut associer aux ports physiques du routeur, dans Interfaces -> Assignments
.
Dans Interfaces -> iface_name
, on peut configurer l’interface en question : lui donner un nom explicite, son adresse IP, et la passerelle qui lui est accessible.
Les passerelles sont à configurer individuellement, dans System -> Routing -> Gateway
. La petite terre indique l’interface actuellement par défaut (peut changer en fonction de l’état des liens). Un double-clic sur une passerelle permet de la configurer.
On donne l’interface par laquelle cette passerelle est accessible (par exemple WAN
), on donne un nom (que l’on choisit) à cette passerelle, on entre l’IP sur laquelle elle est accessible (par exemple 192.168.1.1), et une adresse IP de monitoring (qui sera pinguée régulièrement, pour s’assurer que cette connexion est toujours vivante ; par exemple 8.8.8.8).
⚠ l’IP de monitoring ne sera jamais accessible depuis une autre interface du routeur PfSense. Faire attention de ne pas bloquer les serveurs DNS d’une interface.
⚠ Pour une connexion qui doit être utilisée même si elle est instable (par exemple une connexion basse qualité de secours, préférable à une absence de connexion), je conseille de cocher Disable Gateway Monitoring
, afin qu’elle soit toujours considérée vivante.
En cliquant sur Display Advanced
, on peut définir les seuils à partir desquels la connexion est considérée comme perdue.
Si le routeur est défini comme serveur DNS pour les clients, il faut configurer sa résolution DNS. Pour ça, on va dans System -> General Setup
. Dans le cas de multi-WAN, il est nécessaire d’avoir au moins 1 serveur DNS par passerelle.
Par souci de simplicité, je choisis le serveur DNS de cette passerelle comme adresse de monitoring pour cette passerelle. Ainsi, si c’est le serveur DNS qui tombe (empêchant la navigation internet), la connexion sera considérée comme défectueuse, et le routeur basculera sur une autre connexion.
Dans System -> Routing -> Gateway Groups
, on ajoute un groupe de passerelle. Il faut lui donner un nom (par exemple “Gateways_Failover”).
Dans Gateway Priority
, on donne une priorité à chaque passerelle existante. Si “Never”, elle ne sera pas utilisée dans ce groupe de passerelles. Toutes les passerelles d’un même Tier seront utilisées en même temps, en commençant par le Tier 1. Si les conditions de ligne défectueuse (perte de paquet, forte latence ou lien coupé) se présentent, le routeur basculera sur la/les passerelles du Tier 2, etc. (C’est aussi en mettant plusieurs passerelles dans le même Tier que l’on peut faire de l’équilibrage de charge, dont on peut affiner la forme en modifiant le poids de chaque passerelle.)
Pour Virtual IP
, on laisse généralement “Interface adress”. Il peut être utile de faire différemment si on a un cluster de routeurs PfSense redondants, pour simuler une même interface entre tous les routeurs.
Le Trigger Level
permet de choisir l’évenement qui déclenche un basculement vers le Tier suivant (perte de paquets, haute latence, lien coupé). Le détail des seuils peut être reglé pour chaque passerelle individuellement (voir ci-dessus).
Dans System -> Routing
, une fois le groupe de passerelle créé, on peut le définir comme passerelle par défaut, pour IPv4 et/ou IPv6.
NOTE : il semble que ce ne fut pas possible pendant longtemps. Dans le cas où ce choix ne serait pas disponible, il faut aller dans Firewall -> Rules
, aller dans l’onglet LAN (car le choix de passerelle s’applique aux paquets qui se présentent sur l’interface LAN, dans le but de sortir sur une autre interface), éditer chaque règle pertinente (par défaut uniquement une règle pour IPv4 et une règle pour IPv6 qui autorise tout le trafic vers les autres interfaces), cliquer Display Advanced
et définir la Gateway
sur le groupe précedemment créé. C’est aussi la solution à choisir pour un filtrage plus granulaire.
Pour voir l’état actuel des passerelles, on peut aller dans Status -> Gateways
. Ceci donne l’état de chaque passerelle, individuellement.
On peut aller dans l’onglet Gateway groups
pour voir l’état du groupe de passerelle.
La GPO est présente dans “Objets de Stratégies de groupe”. Elle n’y a aucun effet.
Elle doit être liée à un objet, qui peut être le Local system, un Domaine, un Site ou une OU (unité d’organisation).
Une fois liée, elle s’applique à cet objet, et tout ce qu’il contient.
On peut laisser le lien en place, mais le désactiver, via clic-droit sur le lien. ATTENTION, il s’agit de la notion de “Lien activé”, et non la notion d’“Appliquer” (qui est là pour forcer l’application de la GPO à la descendance).
Il est possible de désactiver les paramètres ordinateur et/ou utilisateurs d’une GPO.
Cela vaut le coup, après modification d’un GPO, d’attendre ~ une minute avant de faire gpupdate /force
sur les clients, le temps qu’elle soit bien prise en compte et synchronisée sur les différents PDC.
Les GPO sont appliquées dans l’ordre suivant, avec priorité à la dernière occurence :
Il est possible de bloquer l’héritage, ce qui bloque l’héritage reçu et non l’héritage légué.
On peut également “Appliquer” (Enforced) un lien vers une GPO. Ceci aura pour effet que cette GPO ne pourra pas être outrepassée par une GPO dans une OU descendant de celle-ci, et l’héritage sera forcé vers les descendants, même si ceux-ci le bloquent.
Dans l’onglet “Commun”, certains paramètres de GPO (uniquement la catégorie Préférences ?) ont l’option “Appliquer une fois et ne pas réappliquer”.
Ceci fonctionne comme indiqué : ça s’applique à la 1e actualisation des GPO, et plus par la suite.
Si on voulait à nouveau les réappliquer, mais 1 seule fois, on décoche la case, on valide, puis on recoche la case, et on valide ; ainsi elle sera à nouveau appliquée 1 fois à chaque poste/utilisateur, puis ignorée.
La gestion des OUs et de leurs membres se fait dans Utilisateurs et Ordinateurs Active Directory
.
Les ordinateurs sont présents, en tant qu’objet Ordinateur, dans la catégorie Computers, mais également en tant que Groupe de sécurité “Ordinateurs du domaine” (donc dans la catégorie Users).
On peut sortir un ordinateur de la catégorie Computer, par exemple pour le mettre dans une OU, il restera par défaut dans le groupe “Ordinateurs du domaine”. Ceci permet de l’inclure quand même via les filtres de sécurité.
Lorsqu’on applique un filtre de sécurité, pour déterminer les (sous-)objets auxquels s’appliquer la GPO, ce sont des objets de type utilisateur, groupe, ordinateur, mais PAS des OU.
Les objets hors de ce filtre de sécurité n’ont, semble-t-il, pas le droit de lecture sur la GPO, donc impossibilité de l’appliquer.
Il me semble que cette mécanique empêche un compte hors du domaine (par exemple l’administrateur local d’un poste joint au domaine) d’appliquer quelque GPO que ce soit.
Lorsqu’une GPO est liée au domaine lui-même, elle concerne tous les objets du domaine, dont le groupe “Utilisateurs du domaine” et le groupe “Ordinateur du domaine”. Les paramètres utilisateurs et ordinateurs s’appliquent donc.
Toutefois, si on crée une OU SPECIAL_COMPUTER
et une OU SPECIAL_USER
, dans lesquelles on glisse respectivement un ordinateur, et un utilisateur, et que l’on lie une même GPO à ces 2 OUs, seuls les paramètres ordinateur s’appliqueront à la l’OU SPECIAL_COMPUTER
et seuls les paramètres utilisateur s’appliqueront à l’OU SPECIAL_USER
.
Il est possible de configurer un Loopback Processing Mode : on crée une GPO avec des règles utilisateurs, et on la lie à une unité contenant des ordinateurs. Avec l’activation du loopback, les stratégies utilisateurs s’appliquent aux utilisateurs loggés sur ces ordinateurs.
Pour ceci : modifier la GPO qui doit s’appliquer aux utilisateurs, et aller dans Config ordinateur / Stratégies / Modèles d'administration / Système / Stratégie de groupe
et activer “Configurer le mode de traitement par bouclage de la stratégie de groupe utilisateur”.
La différence entre Remplacer et Fusionner est décrite dans le cadre de droite ; a priori il faut vraiment penser à choisir “Fusionner”.
Si les Modèles d’administration sont absents, il faut les ajouter.
Config de la rotation stockée dans /etc/logrotate.d/mon-journal-a-rotater
De cette forme :
/path/to/my/logfile {
monthly # can be daily, weekly
rotate 12 # keep 12 history files
compress # gzip the old logs
delaycompress # gzip old logs except the more recent one
missingok # does not stop if a file is missing
notifempty # does not rotate if file is empty
create 644 root root # permissions, user and group for the newly created file
}
Force rotation :
logrotate -fv /etc/logrotate.d/mon-journal-a-rotater
(force, and verbose)
On peut spécifier directement le fichier de configuration général, /etc/logrotate.conf
, qui inclue tout ce qui se trouve dans /etc/logrotate.d/
si on veut rotater l’ensemble des logs.
Ping scan : nmap -sn 10.0.0.1-255
Nmap est plus efficace lorsqu’il est lancé avec les droits root, car il peut aller directement consulter la table ARP, alors que sans les droits root, il tente la connection sur un/des ports courants.
https://security.stackexchange.com/questions/74493/different-results-using-nmap-with-without-sudo
Parfois, même ainsi, tous les appareils en ligne ne sont pas listés (genre 10 resultats maximum). Il semble que passer l’option -v
pour augmenter la verbosité aide à les visualiser tous.
Pour n’avoir que les IP affichées, on peut poser ça après notre commande nmap : | grep report | awk '{print $5}'
sudo aptitude install live-build live-tools
mkdir buster_live && cd buster_live
mkdir auto && cp /usr/share/doc/live-build/examples/auto/* ./auto/
Editer le fichier auto/config pour qu’il contienne ceci :
#!/bin/sh
set -e
lb config noauto \
--architectures 'amd64' \
--archive-areas 'main contrib non-free' \
--bootappend-live 'boot=live config locales=fr_FR.UTF-8 keyboard-layouts=fr' \
--binary-images 'iso-hybrid' \
--distribution 'buster' \
--linux-flavours 'amd64' \
--source 'false' \
"${@}"
Entrer la commande lb config
, puis aller éditer le fichier config/package-lists/live.list.chroot
et ajouter les paquets désirés. Je propose ceci :
live-boot
live-config
live-config-systemd
#FIRMWARE
firmware-linux firmware-atheros firmware-b43-installer firmware-bnx2x firmware-brcm80211 firmware-intelwimax firmware-iwlwifi firmware-libertas firmware-myricom firmware-netxen firmware-qlogic firmware-realtek broadcom-sta-dkms
#UTILS
nmap rcconf gparted hfsprogs ntfs-3g hfsplus hfsutils dosfstools lightdm bash-completion chntpw dcfldd bootlogd less mesa-utils numlockx ethtool grub2 ssh gdisk testdisk python-tk iftop nethogs pm-utils dmraid aptitude apt-file smartmontools debootstrap pciutils usbutils cifs-utils e2fsprogs mtools screen lvm2 net-tools mdadm lsscsi haveged rng-tools cryptsetup efibootmgr efivar ncdu wireless-tools dnsutils git iperf iperf3 lshw
# TEAMVIEWER
libqt5webkit5 qml-module-qtquick2 qml-module-qtquick-controls qml-module-qtquick-dialogs
# DESKTOP
hplip system-config-printer xsane simple-scan mate-desktop-environment caja-open-terminal mesa-utils firefox-esr-l10n-fr chromium-l10n pulseaudio pavucontrol pavumeter mate-media-common mate-media mate-settings-daemon-dev mate-settings-daemon-common mate-settings-daemon chromium engrampa unrar pluma bluez blueman pulseaudio-module-bluetooth gddrescue ddrescueview vlc rdesktop conky network-manager-gnome webcamoid cheese
Puis entrer la commande sudo lb build
.
A noter qu’il est possible de décomposer la commande sudo lb build
en la succession suivante :
sudo lb bootstrap
sudo lb chroot
sudo lb binary
Il est possible d’aller modifier/ajouter manuellement des fichiers entre l’étape chroot et l’étape binary. Par exemple :
sudo mkdir ./chroot/home/user/
sudo cp /etc/skel/.* ./chroot/home/user/
sudo mkdir ./chroot/home/user/Bureau/
sudo chown 1000:1000 ./chroot/home/user -R
et y ajouter des fichiers, qui seront disponibles directement sur le bureau du live.
On peut éditer les alias :
nano chroot/home/user/.bashrc
On peut aussi ajouter le .inputrc tant qu’à faire
nano ./chroot/home/user/.inputrc
Si on souhaite recommencer la création du live, on peut utiliser la commande sudo lb clean
qui ne conserve que le cache des paquets, du bootstrap et la config. On peut aussi utiliser les options --binary
ou bien --chroot
pour conserver les étapes antérieures.
On peut également utiliser l’option --cache
pour supprimer également le cache et repartir complètement à 0.