samedi 11 janvier 2020

vROPs

Préparation aux exigences d'installation de VROPS:

   Tous les nœuds doivent utiliser une adresse IP statique ou un nom de domaine complet (FQDN) avec une adresse IP statique.
    Vous pouvez inverser avec succès tous les nœuds DNS, y compris les collecteurs distants, vers leur nom de domaine complet, actuellement le nom d'hôte du nœud.
    Tous les nœuds, y compris les collecteurs distants, doivent être routables bidirectionnellement par adresse IP ou nom de domaine complet.
    Ne séparez pas les nœuds de cluster d'analyse avec la traduction d'adresses réseau (NAT), l'équilibreur de charge, le pare-feu ou un proxy qui empêche la communication bidirectionnelle par adresse IP ou FQDN.
    La latence unidirectionnelle entre les nœuds du cluster d'analyse doit être de 5 ms ou moins.
    Ne distribuez pas de nœuds de cluster d'analyse sur un réseau étendu (WAN).
    Téléchargez la dernière version de VROPS 8 .0OVA depuis votre plateforme Web Vmware.
    Licence VROPS ou Cloud valide pour la version 8 - rappelez-vous, l'ancienne licence de 6.6 et inférieure ne fonctionnera pas.

Configuration réseau requise pour les nœuds de cluster :

Lorsque vous créez les nœuds de cluster qui composent vRealize Operations Manager, la configuration associée au sein de votre environnement réseau est essentielle à la communication inter-nœuds et au bon fonctionnement.

    Les nœuds maître et réplique doivent utiliser une adresse IP statique ou un nom de domaine complet (FQDN) avec une adresse IP statique. Les nœuds de données et de collecteur distant peuvent utiliser le protocole de contrôle dynamique de l'hôte (DHCP).
    Vous pouvez inverser avec succès tous les nœuds DNS, y compris les collecteurs distants, vers leur nom de domaine complet, actuellement le nom d'hôte du nœud. Les noms des hôtes déployés par OVF sont définis par défaut sur le nom de domaine complet récupéré.
    Tous les nœuds, y compris les collecteurs distants, doivent être routables bidirectionnellement par adresse IP ou nom de domaine complet.
    Ne séparez pas les nœuds de cluster d'analyse avec la traduction d'adresses réseau (NAT), l'équilibreur de charge, le pare-feu ou un proxy qui empêche la communication bidirectionnelle par adresse IP ou FQDN.
    Les nœuds de cluster Analytics ne doivent pas avoir le même nom d'hôte.
    Placez les nœuds de cluster d'analyse dans le même centre de données et connectez-les au même réseau local (LAN).
    Placez les nœuds de cluster d'analyse sur le même réseau de couche 2 et le même sous-réseau IP.Un réseau de couche 2 étiré ou de couche 3 routé n'est pas pris en charge.
    N'étendez pas le réseau de couche 2 sur plusieurs sites, ce qui pourrait créer des partitions réseau ou des problèmes de performances réseau.
    Avec la disponibilité continue activée, séparez les nœuds de cluster d'analyse en domaines d'erreur, répartis sur les clusters vSphere
    La latence unidirectionnelle entre les nœuds du cluster d'analyse doit être de 5 ms ou moins.
    La bande passante réseau entre les nœuds du cluster d'analyse doit être supérieure ou égale à un gbps.
    Ne distribuez pas de nœuds de cluster d'analyse sur un réseau étendu (WAN) .Pour collecter des données à partir d'un WAN, d'un centre de données distant ou séparé ou d'un emplacement géographique différent, utilisez des collecteurs distants.
    Les collecteurs distants sont pris en charge via un réseau routé mais pas via NAT.
    N'incluez pas de trait de soulignement dans le nom d'hôte d'un nœud de cluster.

Meilleures pratiques pour les nœuds de cluster:

Lorsque vous créez les nœuds de cluster qui composent vRealize Operations Manager, des meilleures pratiques supplémentaires améliorent les performances et la fiabilité dans vRealize Operations Manager.

    Déployez des nœuds de cluster d'analyse vRealize Operations Manager dans le même cluster vSphere dans un seul centre de données et ajoutez un seul nœud à la fois à un cluster, ce qui lui permet de se terminer avant d'ajouter un autre nœud.
    Si vous déployez des nœuds de cluster d'analyse dans un cluster vSphere hautement consolidé, vous pouvez avoir besoin de réservations de ressources pour des performances optimales. Déterminez si le rapport CPU virtuel / physique affecte les performances en examinant le temps de préparation CPU et l'arrêt simultané.
    Déployez des nœuds de cluster d'analyse sur le même type de niveau de stockage.
    Pour continuer à répondre aux exigences de taille et de performances du nœud du cluster d'analyse, appliquez des règles d'anti-affinité DRS de stockage afin que les nœuds se trouvent sur des banques de données distinctes.
    Pour empêcher la migration involontaire des nœuds, définissez le DRS de stockage sur manuel.
    Pour garantir des performances équilibrées à partir des nœuds de cluster d'analyse, utilisez des hôtes ESXi avec les mêmes fréquences de processeur. Les fréquences mixtes et le nombre de cœurs physiques peuvent affecter les performances du cluster d'analyse.
    Pour éviter une baisse des performances, les nœuds de cluster d'analyse vRealize Operations Manager ont besoin de ressources garanties lorsqu'ils s'exécutent à grande échelle. La base de connaissances vRealize Operations Manager comprend des feuilles de calcul de dimensionnement qui calculent les ressources en fonction du nombre d'objets et de mesures que vous prévoyez de surveiller, de l'utilisation de la haute disponibilité, etc. Lors du dimensionnement, il est préférable de surallouer que de sous-allouer les ressources.

SRM 8.2

SRM 8.2:
  
SRM est désormais disponible en tant qu'appliance sous le système d'exploitation Photon OS basé sur Linux standard VMware, qui doit toujours être déployé au-dessus d'une boîte Windows en tant que fichier exe.

Ce modèle de déployement réduit beaucoup de temps à déployer et à configurer car nous n'avons pas besoin d'installer une machine Windows dans ce cas et la base de données est toujours intégrée.

Les adaptateurs SRA des fournisseurs de stockage sont tous téléchargés sous forme d'images de conteneur et s'exécutent en tant que conteneur Docker dans SRM-Appliance. 

Vsphere Replication 8.2 est désormais capable de répliquer des machines virtuelles chiffrées et peut désormais tirer parti de la gestion basée sur la politique de stockage, qui s'intègre profondément avec des produits comme vSAN.

Un moyen facile et simple de migrer de SRM basé sur Windows vers Appliance en exportant toute la configuration à l'aide de l'utilitaire d'exportation.
    Un grand nombre d'améliorations ont été ajoutées à l'API publique, ce qui aide des produits comme vRO à mieux automatiser les choses.


De grandes améliorations apportées à l'interface utilisateur SRM / VR avec la compatibilité du thème en mode sombre.
    SRM et VR 8.2 prennent désormais en charge NSX-T
    Sécurité et flexibilité améliorées avec prise en charge des machines virtuelles chiffrées
    Sécurité renforcée avec le chiffrement du trafic vSphere Replication
    SRM Content Pack pour vRealize Log Insight
 
 
 




 




 

mardi 6 novembre 2018

VSAN

VSAN ?

VSAN est une nouvelle solution de stockage développée par VMware. VSAN est donc utilisé pour stocker les fichiers de disque de vos machines virtuelles.

VSAN s’il est entièrement intégré à VMware vSphere, c’est en fait une partie de l’hyperviseur vSphere.

VMware a conçu VSAN comme une plate-forme pour le stockage basé sur des règles afin de simplifier les décisions de déploiement de votre machine virtuelle.

Cela signifie que lorsque vous appelez le stockage local et que vous l'intégrez dans l'hyperviseur dans VMware Vcenter pour la gestion, vous pouvez créer des stratégies de stockage pour chacune de vos différentes machines virtuelles afin de vous assurer que les machines virtuelles reçoivent la qualité de stockage des services. les applications qui fonctionnent à l'intérieur nécessitent.

Vmware VSAN est également une solution de stockage en cluster hautement disponible et, bien entendu, puisqu'il s'agit d'un produit Vmware, la majorité des fonctionnalités avancées de Vshere, telles que vMotions, storage vMotions, DRS, HA, etc., sont entièrement prises en charge lorsqu'elles sont exécutées au-dessus des données partagées VSAN.

Vmware VSAN est également un système de stockage évolutif. Cela signifie que, puisque vos besoins en machines virtuelles augmentent, vous avez besoin de plus de capacité de stockage. Vous pouvez simplement ajouter plus de stockage à vos serveurs existants ou vous pouvez même ajouter de nouveaux serveurs ou un hôte au cluster VSAN, ce qui apporte également une capacité de stockage supplémentaire.

Enfin, je tiens à souligner que VSAN fournit différents niveaux de qualité de service (QoS) pour chaque machine virtuelle ou chaque disque virtuel.

jeudi 18 octobre 2018

PSOD

Purple Screen of Death (PSOD):

Purple Screen of Death (PSOD) est un écran de diagnostic de type blanc sur fond violet qui s'affiche lorsque le VMkernel d'un hôte ESX / ESXi rencontre une erreur critique, devient inopérant et met fin aux machines virtuelles en cours d'exécution.

En règle générale, le PSOD détaille l’état de la mémoire au moment du crash et inclut d’autres informations, telles que la version et la construction d’ESX / ESXI, le type d’exception, le dump de registre, les tâches exécutées sur chaque CPU au moment du crash, disponibilité du serveur, messages d'erreur et informations sur le vidage mémoire.

Le core dump (ou dump de la mémoire) est un fichier contenant des informations de diagnostic supplémentaires provenant d'un PSOD pouvant être transmises au support VMware afin de déterminer une analyse de la cause première de l'échec.

Le terme Purple Screen of Death est un jeu de Blue Screen of Death, le nom informel donné par les utilisateurs à l'erreur de protection générale (GPF) de Windows.


mardi 9 octobre 2018

UNMAP

La récupération automatique d'espaces:

est une fonctionnalité qui permet à un administrateur Vmware de récupérer un espace de stockage inutilisés. cette fonctionnalité est activé par défaut dans les nouvelles version de Vmware Vsphere utilisant VMFS 6.






Vmware vSphere Content library

Vmware vSphere Content library:

est un emplacement central dans Vsphere 6.0 pour géré et distribuer les machines virtuelles, les templates, les images ISO,les scripts, les vApps et d'autres fichiers qui ont en relation avec les machines virtuelles.

Content Library permet aux administrateurs de mettre à jour, de partager et de synchroniser les machines virtuelles et le matériel associé à partir d'un emplacement central, ce qui peut s'avérer précieux pour une organisation disposant de plusieurs vCenter Server ou de plusieurs centres de données (data centers). Content Library permet d'éliminer le besoin de mettre à jour manuellement des fichiers sur plusieurs sites et d'éviter des problèmes liés à plusieurs versions du même template.

un administrateur peut créer une bibliothèque locale, subscribed ou published. une bibliothèque locale contient des fichiers uniquement disponible pour une seule instance vCenter Serevr. une bibliothèque subscribed contient des fichiers qui peuvent être partagés avec d'autres instances vCenter Server faisant partie du meme domaine SSO (Single Sign On).


dimanche 7 octobre 2018

Vsphere FT

L'une des fonctionnalités les plus importantes de VMware vSphere, qui est classée dans la haute disponibilité, que nous utilisons principalement pour atteindre le temps zéro d'activité et l'agilité, à la fois dans les applications Business Apps ou même au niveau des systèmes d'exploitation, cette technique est appelée la Fault Tolerence (Tolérence aux pannes).

Il est très probable qu'une défaillance matérielle ou logicielle survienne à la suite d'une défaillance matérielle ou logicielle. Grâce à cette technologie, nous pouvons garantir un très haut niveau de disponibilité du système et respecter les SLAs (Service Level Agreement).



L'idée de cette technique:

Dépend de l'existence du même service exactement sur un autre hôte similaire et qu'il existe une synchronisation synchrone continue Comme nous le voyons dans l'image de l'article, nous avons trois hôtes qui représente le principal moyen ou la base sur laquelle il existe un service ou une application et il existe un ou plusieurs hôtes secondaires en fonction de votre potentiel et de votre désir, Une copie de l’hôte principal a créé cette technologie vSphere FT lors de son activation et l’ingénieur système ne l’a pas fait manuellement, ce qui représente un point fort.

Cet hôte secondaire est en mode veille. Par conséquent, si l'échec de tout type d'hôte principal entre dans le service secondaire et qu'il s'agit du principal jusqu'à ce que le principal revienne à son état normal,

Et voici peut-être une question dans l’esprit du Continental: est-ce que le moment d’entrée secondaire au service après avoir ressenti la suspension du primaire est considéré comme un temps mort, même pour des moments simples? La réponse est non ...

La raison en est que le mode secondaire est prêt, oui, mais actif-actif, et non actif-passif, et pour préciser que le mode secondaire fonctionne tout le temps avec les mêmes capacités et caractéristiques, même avec la même adresse IP, et que cela ne signifie pas qu'il est en mode veille. Sur le primaire est transmis immédiatement sur le secondaire et nécessite donc une vitesse très élevée de ce routeur entre les hôtes et ce point d’une des exigences de l’application de cette technologie qui ne peut pas fonctionner sans elle et fournit la vitesse Giga 10 pour transférer des données sur le commutateur, et il existe d’autres exigences au niveau de la CPU, HD, RAM accessibles à partir de VMware Documents, ainsi que fortement favorisés NIC ou équipe de NIC pour ce spectre FT afin d’obtenir les meilleures performances

Conclusion Assurer la continuité de service avec cette technologie est l'une des meilleures solutions pour la haute disponibilité et l'une des plus belles fonctionnalités de la technologie virtuelle.