Quantcast
Channel: Vmware
Viewing all 196 articles
Browse latest View live

VMware OS Optimization Tool

$
0
0

VMware OS Optimization Tool

Continuando con Horizon 7, hoy os queremos mostrar una herramienta que está disponible gratuitamente en VMwareLabs, se trata de VMware OS Optimization Tool. Ha sido diseñada por el ingeniero Jack McMichael de VMware y se puede descargar gratuitamente. ¿Y para qué sirve exactamente? Lo que nos permite VMware OS Optimization Tool es “limpiar” de cosas innecesarias sistemas operativos Windows, con el fin de optimizar el desempeño de los mismos al utilizarlos en Horizon 7.

¿Qué beneficios exactamente extraemos de utilizar VMware OS Optimization Tool?

  • Mejoramos el rendimiento de las imágenes base en VDI, mejorando por ejemplo el inicio de sesión.
  • Eliminamos procesos o configuraciones innecesarias (tareas programadas, características, servicios, aplicaciones…)
  • Podremos aplicar modificaciones en el registro tanto HKCU (usuario) como HKLM (máquina)
  • Aplicar la configuración de efectos visuales que mejor trabaje para nuestros nuevos usuarios
  • Deshabilitar procesos que se ejecutan el arranque
  • Podremos desactivar UAC

Aunque estamos hablando de VMware Horizon 7, realmente también la podremos utilizar con Microsoft VDI o Citrix XenDesktop

DOWNLOADhttps://labs.vmware.com/flings/vmware-os-optimization-tool#summary

GUIA OFICIAL: https://www.vmware.com/content/dam/digitalmarketing/vmware/en/pdf/techpaper/vmware-view-virtual-desktops-windows-optimization.pdf

Requisitos VMware OS Optimization Tool

  • Windows 7/8/10, Windows Server 2008 R2 / 2012/2016
  • NET Framework 3.5, SP1.

vmware-os-optimization-tool-1

La entrada VMware OS Optimization Tool aparece primero en VMware Blog.


Hiperconvergencia VMware

$
0
0

Hiperconvergencia VMware

De un tiempo a esta parte se habla constantemente de Infraestructuras y Soluciones Hiperconvergentes en Virtualización. Hoy os queremos mostrar qué es el concepto de hiperconvergencia, qué soluciones existen, qué las difiere de las infraestructuras tradicionales y qué soluciones dispone VMware con respecto al resto de actores del mercado.

Definición de Hiperconvergencia en Virtualización

Podríamos definir Hiperconvergencia (HCI) como la consolidación de varias capas de la infraestructura, computación, red y almacenamiento en un solo nivel. El nombre de hiperconvergencia, como podéis suponer, tiene que ver con hipervisor, que es uno de los elementos fundamentales.

El objetivo principal de la hiperconvergencia es simplificar el diseño y reducir el coste de la infraestructura. Aunque realmente, como veremos, podemos incluso a mejorar el rendimiento sobre una plataforma tradicional.

hiperconvergencia-vmware-0

Vamos a hablar sobre las tres capas que queremos consolidar en un sólo nivel:

  • Computación: la capa de computación se refiere al hardware del servidor y al software del hipervisor, que puede variar dependiendo la tecnología que utilicemos.
  • Red: es la capa que menos se ve afectada. Las mayores diferencias que existirán entre infraestructuras convergentes y tradicionales, será la parte de red que gestiona el tráfico del almacenamiento, que ya no es un elemento compartido, aunque sí tiene que ser asignado.
  • Almacenamiento: es la capa que más afectada se ve. Normalmente se elimina el almacenamiento compartido y se asigna almacenamiento interno a los nodos. Ahora se define por software y se generan volúmenes virtuales.

Aunque se intenta simplificar el diseño, siempre habrá que ser capaz de gestionar las capas o componentes que componen una infraestructura hiperconvergente. También es verdad que no disponer de una cabina de almacenamiento, hace que sea más fácil gestionar la infraestructura para los administradores de TI.

Soluciones Hiperconvergentes más importantes en 2017

Existe un diagrama que muestra quienes son los líderes del mercado en cada sector o especialidad que no es otro que Gartner Magic Quadrant. 

Como podéis ver EMC, Nutanix y SimpliVity, son empresas punteras en temas de Hiperconvergencia. Como podéis observar VMware no aparece en este cuadrante, y eso no significa que no esté entre los líderes, pero no vende hardware hiperconvergente como sus rivales, sino que dispone de socios tecnológicos que lo hacen por ellos como Dell, HP, Supermicro,…y se comercializa el paquete hiperconvergente basado en especificaciones de VMware de esta forma.

Destaca en este cuadrante Nutanix o SimpliVity, que además de poder trabajar con VMware o Hyper-V (Nutanix), llevan muchos años especializándose en este tipo de infraestructuras y tienen sus propios hipervisores como Nutanix con Acropolis.

hiperconvergencia-vmware-2

VMware y la hiperconvergencia

¿Entonces VMware donde se encuentra en este mercado con respecto al resto de competidores? Os dejo un libro de interesante lectura:

Actualmente VMware dispone de dos productos Virtual SAN 6.6 y vSphere 6.5 que se han orientado significativamente a las infraestructuras HCI. Novedades como poder gestionar vSAN desde el propio ESXi, mejora en el rendimiento de hasta el 50% en unidades All-Flash o tener la posibilidad de utilizar tráfico Unicast, hacen que un entorno hiperconvergente tenga más sentido.

En resumen, VMware es otro actor en el mercado de la hiperconvergencia, con un papel bastante importante por ser líder en virtualización, al cual le intentan dar soporte el resto de fabricantes o integrarse con sus soluciones, creando una capa extra entorno a vSphere o vSAN. Otras empresas llevan años con esto, y VMware está dando grandes pasos para seguir la misma línea.

La entrada Hiperconvergencia VMware aparece primero en VMware Blog.

Integración directorio activo vCenter

$
0
0

Integración directorio activo vCenter

Si no habéis integrado con directorio activo vuestro vCenter y lo queréis hacer a posteriori os explicamos como hacerlo. Entrar con vuestras credenciales de adminitrador (normalmente administrator@vsphere.local) y una vez dentro de la consola, pulsáis sobre el menú principal –> Administración –> Implementación –> Configuración del sistema:

Integración directorio activo vCenter 01

Pulsamos sobre Nodos y pulsamos sobre la IP de nuestro vCenter. Iremos a la pestaña Administrar –> Active Directory –> Unir:

Integración directorio activo vCenter 02

Introducimos los datos para unirnos al dominio:

Integración directorio activo vCenter 03

Tendremos que reiniciarlo.

Integración Single Sign-On

Ahora que tenemos el vCenter integramos también Single-Sign On

Integración directorio activo vCenter 1

Pulsáis sobre la pestaña Orígenes de identidad y sobre el icono +:

Integración directorio activo vCenter 2

Elegimos Active Directory:

Integración directorio activo vCenter 3

Configurar para Usar cuenta de equipo:

Integración directorio activo vCenter 4

Y pulsamos Finalizar:

Integración directorio activo vCenter 5

Ahora nos mostrará otra fuente de autenticación como es directorio activo:

Integración directorio activo vCenter 6

En mi caso añado mi usuario de directorio activo al grupo de administradores:

Integración directorio activo vCenter 7

Seleccionamos el dominio y el usuario que queremos agregar al grupo:

Integración directorio activo vCenter 8

Ahora podemos utilizar nuestro usuario de dominio para loguearnos:

Integración directorio activo vCenter 9

 

La entrada Integración directorio activo vCenter aparece primero en VMware Blog.

Configuración básica VMware Horizon 7

$
0
0

Configuración básica VMware Horizon 7

El otro día montamos el laboratorio básico para empezar a trabajar con VMware Horizon 7, hoy os quiero mostrar como hacer una configuración rápida de todo lo necesario para poder empezar a trabajar.

De momento sólo teníamos el Connection Server y habíamos configurado el vCenter:

Configuración-básica-VMware-Horizon-7-1

Siguiente paso que deberemos realizar.

Definir Pairing Password

Necesitaremos configurar la contraseña para configurar nuestros Security Servers:

Configuración-básica-VMware-Horizon-7-0

Introducimos la contraseña dos veces:

Configuración-básica-VMware-Horizon-7-01

Instalación Security Server

Como podéis apreciar no hay ninguno instalado, como ya hablamos en anteriores entradas usaremos HORIZON 2:

Configuración-básica-VMware-Horizon-7-2

Como vimos anteriormente, se utiliza el mismo ejecutable que para instalar el Connection Server.

Configuración-básica-VMware-Horizon-7-3

Introducimos la IP del Connection Server:

Configuración-básica-VMware-Horizon-7-4

Introducimos una contraseña para Pairing Password:

Configuración-básica-VMware-Horizon-7-5

Nos dará los valores predefinidos para el Security Server:

Configuración-básica-VMware-Horizon-7-6

Si tenemos claro que sólo va a ser Security Server, podemos configurar automáticamente el firewall de Windows:

Configuración-básica-VMware-Horizon-7-7

Comienza el proceso de instalación:

Configuración-básica-VMware-Horizon-7-8

Una vez terminado y arrancados los servicios podremos comprobar que se ha agregado correctamente:

Configuración-básica-VMware-Horizon-7-9

Revisamos en consola:

Configuración-básica-VMware-Horizon-7-10

Si vamos a la URL anteriormente mostrada en la instalación tendremos un nuevo portal, que será el de acceso de los clientes:

Configuración-básica-VMware-Horizon-7-100

Si pulsamos sobre VMware Horizon HTML Access veremos que hay acceso HTML:

Configuración-básica-VMware-Horizon-7-101

En este punto a un no hemos definido ni aplicaciones ni escritorios con los que trabajar.

Instalar View Composer Horizon 7

Ahora vamos a instalar el View Composer en el vCenter. Yo utilizaré el W2012 de HORIZON 3:

Configuración-básica-VMware-Horizon-7-26

Lanzamos la ejecución (necesario .NET 3.5, que podéis añadir como Feature):

Configuración-básica-VMware-Horizon-7-27

Aceptamos las condiciones:

Configuración-básica-VMware-Horizon-7-28

Lo dejamos por defecto:

Configuración-básica-VMware-Horizon-7-29

He usado SQL Express 2017

Configuración-básica-VMware-Horizon-7-30

 

Crear Granja en Horizon 7

Ahora vamos a crear nuestra primera granja. Vamos a la sección en la consola del Connection Server:

Configuración-básica-VMware-Horizon-7-13

Vamos a elegir Automated Farm:

Configuración-básica-VMware-Horizon-7-14

El vCenter que tenemos definido, en este caso:

Configuración-básica-VMware-Horizon-7-15

Le damos un nombre:

Configuración-básica-VMware-Horizon-7-16

Ahora configuramos como se llamarán las máquinas generadas:

Configuración-básica-VMware-Horizon-7-17

Pulsamos Next:

 

Configuración-básica-VMware-Horizon-7-24

Seleccionamos cada apartado:

Configuración-básica-VMware-Horizon-7-23

Pulsamos Next:

Configuración-básica-VMware-Horizon-7-25

 

Instalar RDS en Windows Server 2016

Deberemos tener una máquina Windows Server 2016 (no funciona con W2012 en Horizon 7) con el ROLE de Remote Desktop Services:

Configuración-básica-VMware-Horizon-7-21

Con el role añadido de Remote Desktop Session Host:

Configuración-básica-VMware-Horizon-7-22

Dar permisos a usuarios en aplicaciones/escritorio en VMware Horizon 7

Podemos definir los usuarios que tendrán acceso a los recursos compartidos, ya sean Escritorios o Aplicaciones:

Configuración-básica-VMware-Horizon-7-11

Elegís un usuario o grupo predefinido en directorio activo:

Configuración-básica-VMware-Horizon-7-12

 

La entrada Configuración básica VMware Horizon 7 aparece primero en VMware Blog.

Modificar Scratch Location en VMware 6.5

$
0
0

Modificar Scratch Location en VMware 6.5

Hoy me he encontrado con un error al intentar desmontar un storage que ya había liberado de máquinas virtuales y que quería pasar a VMFS 6. El vCenter se encontraba en la versión 6.5U1. Disponía de otro storage donde mover las máquinas.

En el momento de intentar desmontar el storage para poder eliminarlo me encuentro con el siguiente error (este es uno de los problemas que os podéis encontrar, no la única razón):

“Datastore Name xxxx VMFS uuid xxxxxx está en uso. No se puede desmontar el volumen….”

vmware-uuid-datastore-en-uso-1_LI

Esto se debe a que realmente residen ficheros de un ESXi que se están utilizando. Habrá que modificarlos para que apunten a la nueva ubicación. Los pasos que tenemos tenemos que seguir son estos:

  • Nos conectamos vía web al host ESXi
  • Pulsamos en Almacenamiento

Modificar Scratch Location en VMware 6.5-1

  • Seleccionamos un storage donde que queramos cambiar el fichero y hacemos un Browser
  • Creamos un directorio que identifique el ESXi:

.locker-NombreESXi

  • Cerramos el explorador

vmware-uuid-datastore-en-uso-3

  • Ahora pulsamos en Administrar –> Sistema –> Configuración avanzada

vmware-uuid-datastore-en-uso-4

  • Buscamos ScratchConfig.CurrentScratchLocation y vemos donde está ahora actualmente.
  • La forma más sencilla de saber qué UUID o ruta debemos introducir, es pulsar sobre el storage:

Modificar Scratch Location en VMware 6.5-2

  • Editamos el valor y lo cambiamos con /vmfs/volumes/DatastoreUUID/.locker-NombreESXi
  • Reinicia el host y ya no tendremos esos errores

La entrada Modificar Scratch Location en VMware 6.5 aparece primero en VMware Blog.

Vembu BRD backup para VMware

$
0
0

Vembu BRD backup para VMware

Hoy os quiero presentar un software multiplataforma que podremos usar para realizar copias de seguridad tanto en VMware, Hyper-V y en Workstation por ejemplo.

El proceso de instalación es bastante fácil. Podremos usar un datastore local o de red. La gestión es web y dispone de un postgrepsql por debajo.

La instalación se realiza mediante un EXE en un sistema Windows para la versión Vembu BRD.

Ejecutamos y pulsamos Siguiente:

vembu-backup-vmware-1

Aceptamos la licencia:

vembu-backup-vmware-2

Ahora podemos customizar el Storage y el usuario por defecto que es admin / admin. El puerto es 6060, tendremos que abrir la comunicación por el puerto 32004 :

vembu-backup-vmware-3

Esperamos a que termine la instalación:

vembu-backup-vmware-4

Pulsamos Finish

vembu-backup-vmware-5

Arrancará el servidor:

vembu-backup-vmware-6

Introducimos el usuario y ya tenemos la gestión. El primer paso es la hora:

vembu-backup-vmware-7

Ahora introducimos un nombre. El del servidor de backup valdrá:

vembu-backup-vmware-8

Pulsamos sobre VMware vSphere:

vembu-backup-vmware-9

Introducimos los datos del vCenter:

vembu-backup-vmware-10

Pulsamos en BACKUP:

vembu-backup-vmware-11

Pulsamos sobre los ESXi o las máquinas virtuales que nos interesa:

vembu-backup-vmware-12

Podemos Opcionalmente truncar logs:

vembu-backup-vmware-13

Pulsamos sobre la programación:

vembu-backup-vmware-14

Podemos configurar repositorios:

vembu-backup-vmware-15

Le damos un nombre y pulsamos Save the backup

vembu-backup-vmware-16

Existen opciones dentro de la aplicación de recovery, reports, diferentes menús de administración…que intentaremos mostrarlos para comprobar la aplicación.

La entrada Vembu BRD backup para VMware aparece primero en VMware Blog.

Instalación DataCore en VMware

$
0
0

Instalación DataCore SANsymphony en VMware

Final de año, y vamos a hacer una entrada sobre un producto que es probable me toque pelearme continuamente en mi día a día, se trata de DataCore SANsymphony.

DataCore es una solución de almacenamiento que proporciona un alto rendimiento con unos costes ajustados.

  • Dispone de dos componentes, por una parte del Server y por otra Datacore Management Console (la interfaz de gestión)
  • Se instala sobre un servidor Windows 2012, 2012R2 o 2016
  • Utiliza los discos locales de nuestros ESXis para dar una solución de hiperconvergencia
  • El punto fuerte de una solución Datacore sobre otras es el rendimiento en IOPS (entrada/salida) sobre otras soluciones. Esto lo podéis comprobar Storage Performance que han analizado varias soluciones.

La idea principal es eliminar las cabinas de almacenamiento tradicionales, mejorar su rendimiento y abaratar costes.

instalar-datacore-vmware-0

Requisitos mínimos DataCore SANsymphony

Podéis revisar los requerimientos desde el siguiente enlace:

https://www.datacore.com/products/technical-information/sansymphony-prerequisites

instalar-datacore-vmware-1

Instalando laboratorio Datacore SANsymphony

Como en casi todas las entradas utilizaré mi laboratorio con mis Microserver HP Gen8 de 16GB de RAM. Para generar las máquinas y jugar con datacore no usaremos la Synology, sino que usaremos, por el propio concepto de datacore de los discos locales de 1TB que dispone cada servidor (dispongo también de 2 SSD que creo también me darán juego, pero esto ya para próximas entradas).

He tenido que desmontarlos y liberarlos para utilizarlos con Datacore. Para hacerlo más cómodo, genero las aplicaciones en los discos de 120GB SSD locales y el storage local de 1TB para crear la futura LUN.

instalar-datacore-vmware-2

Lo comentado, quito todas las dependencias del datastore, desmonto y elimino, para volver a generarlos:

instalar-datacore-vmware-1-b

Generamos dos máquinas Windows con los requisitos que hemos marcado anteriormente y copiamos el ejecutable de la instalación. Lanzamos el instalable en uno de los nodos.

instalar-datacore-vmware-3

La instalación verificará los requisitos cuando termine pulsamos Finish:

instalar-datacore-vmware-4

Dispondremos de un acceso directo al Wizard en el escritorio del servidor que abriremos. Pulsamos sobre SANSymphony y Next:

instalar-datacore-vmware-5

Ahora vamos a instalar High-Availabily Pairs, seleccionamos y pulsamos Next:

instalar-datacore-vmware-6

Pulsamos en New High-Availability Pair y Next:

instalar-datacore-vmware-7

Pulsamos Next:

instalar-datacore-vmware-8

Pulsamos Next:

instalar-datacore-vmware-9

Pulsamos Next si las verificaciones automáticas no dicen lo contrario:

instalar-datacore-vmware-10

Pulsamos Next:

instalar-datacore-vmware-11

Me toca agregar 3 tarjetas de red que no lo he hecho en la instalación (lo hago en caliente) y hacemos Re-run. Luego Next:

instalar-datacore-vmware-12

instalar-datacore-vmware-13

Ahora configuraremos las interfaces de red. Pulsamos Next:

instalar-datacore-vmware-14

Pulsamos Next:

instalar-datacore-vmware-15

Colocamos una IP estática para Ethernet 0, 1 y 2:

instalar-datacore-vmware-16

instalar-datacore-vmware-17

instalar-datacore-vmware-18

Pulsamos Next:

instalar-datacore-vmware-19

Empieza el proceso. Al terminar pulsamos Next:

instalar-datacore-vmware-20

Aceptamos los términos y pulsamos Next:

instalar-datacore-vmware-21

Introducimos contraseña y pulsamos Next:

instalar-datacore-vmware-22

Ahora vamos a configurar el segundo nodo. Yo he metido los nombres en el fichero hosts, pero lo ideal es que estén en dominio:

instalar-datacore-vmware-23

Comienza el proceso (hay que eliminar el Firewall de Windows de la ecuación o abrir puertos para no tener problemas):

instalar-datacore-vmware-24

Pulsamos Next :

instalar-datacore-vmware-25

Pulsamos Next:

instalar-datacore-vmware-26

Pulsamos Next:

instalar-datacore-vmware-27

Pulsamos Next:

instalar-datacore-vmware-28

Configuraremos como en el nodo 1 los 3 interfaces:

instalar-datacore-vmware-29

Pulsamos Next:

instalar-datacore-vmware-30

Pulsamos Next:

instalar-datacore-vmware-31

Nos advierte que se generarán un nuevo Server Group:

instalar-datacore-vmware-32

Pulsamos Next lo dejamos por defect:

instalar-datacore-vmware-33

instalar-datacore-vmware-34

Nos dará un resumen:

instalar-datacore-vmware-35

Yo he tenido que añadir un pequeño disco a cada host porque es requisito para la instalación tener discos sin formato (quería mostrar como montar el disco de la LUN a posteriori por no extenderme más con ésta), aunque luego usaré los de 1TB para generar la LUN y pulsamos Re-Run:

instalar-datacore-vmware-36

Al terminar el equipo donde hemos lanzado la instalación DATACORE1, en este caso, se reinicia:

instalar-datacore-vmware-37

Con esto ya tendríamos la instalación, abrimos la consola, y como se me ha pasado necesitamos instalar Microsoft Visual C++ 2015 que descargamos e instalamos:

https://www.microsoft.com/es-ES/download/details.aspx?id=48145

 

instalar-datacore-vmware-38b

En próximas entradas os enseñamos a configurar la consola:

instalar-datacore-vmware-39

** NOTA **: A mí el nodo 2 no se ha instalado (entiendo que lo debía haber hecho), así que he tenido que lanzar el Wizard en él y añadirlo al Server Group

 

 

La entrada Instalación DataCore en VMware aparece primero en VMware Blog.

Actualizar VMware ESXi a 6.5

$
0
0

Actualizar VMware ESXi a 6.5

Hoy os quiero explicar como actualizar VMware ESXi a la versión 6.5.

Lo primero que debemos hacer es bajar de MyVmware la última versión del Hypervisor ESXi (los HP Gen8 Microserver no son compatibles con 6.5, hay que bajar una personalizada) y cargarla en nuestro datacenter.

Vamos a la consola web Menú –> Update Manager –> Importar imagen ESXi:

actualizar-vmware-esxi-6.5-2

Subimos la imagen:

actualizar-vmware-esxi-6.5

Ahora nos colocamos sobre ella y creamos una línea base:

actualizar-vmware-esxi-6.5-3

Le damos un nombre significativo:

actualizar-vmware-esxi-6.5-4

Vamos a la vista Hosts y pulsamos sobre el que queremos actualizar. En la pestaña Update Manager –> Asociar línea base

actualizar-vmware-esxi-6.5-5

Seleccionamos:

actualizar-vmware-esxi-6.5-6

Ahora pulsamos Corregir:

actualizar-vmware-esxi-6.5-7

Upgrade Baseline –> Siguiente:

actualizar-vmware-esxi-6.5-8

Seleccionamos el host:

actualizar-vmware-esxi-6.5-9

Aceptamos:

actualizar-vmware-esxi-6.5-10

Siguiente:

actualizar-vmware-esxi-6.5-11

Dejamos que Apague las máquinas en el proceso:

actualizar-vmware-esxi-6.5-12

Siguiente:

actualizar-vmware-esxi-6.5-13

Y con esto comenzaría el proceso de actualización si no lo hemos programado en pasos anteriores:

actualizar-vmware-esxi-6.5-14

 

La entrada Actualizar VMware ESXi a 6.5 aparece primero en VMware Blog.


Configuración Datacore con VMware

$
0
0

Configuración Datacore SANSymphony con VMware

Seguimos con las configuraciones que nos vamos a encontrar en un Datacore utilizando como base VMware.

Queremos explicaros los paso a paso que hay que dar para realizar una instalación funcional de Datacore SANSymphony en VMware, este caso versión 6.5

Partimos de la anterior entrada, donde ya teníamos los datacore instalados:

Instalación DataCore en VMware

Como ya habíamos comentado anteriormente, queremos realizar una LUN en modo Mirroring donde el hardware son dos discos de 1TB instalados cada uno en un host ESXi.

Habría que seguir los checks que nos marca la pestaña GETTING STARTED y completarlos.

configuracion-datacore-vmware-getting-started

Añadir PATH del ESXi a los DATACORE Servers

Hemos añadido tres tarjetas así que nos debemos asegurar que existen las rutas a los datacores desde cada esxi. Normalmente si va bien la instalación se autogeneran, pero sino hay que añadirlos. Esto se hace seleccionando el ESXi desde la consola de vCenter –> pestaña Configurar –> Almacenamiento –> Adaptadores de almacenamiento –> iSCSI Software Adapter –> pestaña Destinos –> Detección dinámica –> Agregar

configuracion-datacore-vmware-path

Después de agregar pulsamos un refresco para que vuelva revisar los enlaces:

configuracion-datacore-vmware-path-1

Añadir DATACORE Server a Server Group

En un primer momento dispondremos de un solo servidor de Datacore. Para añadir un segundo nodo pulsamos en la sección Datacore Servers con el botón derecho –> Add Datacore Server:

configuracion-datacore-vmware-0

Simplemente introducimos el nombre o IP del Datacore y pulsamos Add, en unos segundos lo tendremos añadido:

configuracion-datacore-vmware-1

Registrar un nuevo usuario

Una buena práctica, si van a existir diferentes perfiles en la organización, es agregar un usuario que no tenga Full Privileges. Desde Home –> Users o Getting Started –> Register User

configuracion-datacore-vmware-2

Pulsamos Register User y le damos un nombre, al cual podremos unir un Virtual Disk:

configuracion-datacore-vmware-3

Registrar vCenter en DATACORE

En la sección Hosts pulsamos botón derecho y pulsamos Register VMware Center:

configuracion-datacore-vmware-vsphere-0

Ahora introducimos las credenciales:

configuracion-datacore-vmware-vsphere-1

Y nos mostrará las máquinas virtuales y ESXi:

configuracion-datacore-vmware-vsphere-2

Registrar Host ESXi en DATACORE

Otra forma a parte del vCenter es registrar los hosts esxi. Mismos pasos que antes pero pulsamos Register Host:

configuracion-datacore-vmware-register-host-0

Ahora introducimos las credenciales y listo:

configuracion-datacore-vmware-register-host-1

Creo que me quedaré con esta opción porque es más clara la vista.

Crear Disk Pool en DATACORE

Uno de los primeros pasos es crear un Disk Pool. Lo generaremos desde el datacore –> Disk Pool –> Create Disk Pool:

configuracion-datacore-vmware-disk-pool-0

Cambiaremos los valores como en la imagen, aunque yo lo dejo por defecto a 128MB porque es una prueba (el Sector size si es posible pondríamos 4k, pero si no tenemos nuestra plataforma en VMware 6.5 dejarlo en 512B)

configuracion-datacore-vmware-disk-pool-1

Hay que crear al menos un pool disk.

Crear Virtual Disk en DATACORE

Una vez que tenemos el Pool, crearemos un Virtual Disk. En Getting Started –> Create virtual disks

configuracion-datacore-vmware-virtual-disk-0

Le damos el tamaño y el nombre (lo haremos de momento en modo Single, en otra entrada haremos un Mirrored), pulsamos Next:

configuracion-datacore-vmware-virtual-disk-1b

Pulsamos Next

configuracion-datacore-vmware-virtual-disk-2b

Pulsamos Finish:

configuracion-datacore-vmware-virtual-disk-3b

Ahora tenemos que darle acceso a los servidores, así que desde Virtual Disks de sección Hosts del Datacore1 :

configuracion-datacore-vmware-virtual-disk-5

Pulsamos Next:

configuracion-datacore-vmware-virtual-disk-6

Elegimos Round Robin y Create VMFS datastore:

configuracion-datacore-vmware-virtual-disk-7

Crear Disk Group DATACORE

Para generar un Disk Group nos colocamos en el virtual disk –> botón derecho Create Group:

configuracion-datacore-vmware-disk-group

Serve Virtual Disks to Hosts DATACORE

Seguimos con los pasos y vamos a añadir un Virtual Disk a un Host concreto.

configuracion-datacore-vmware-serve-virtual-disk-to-hosts-1

Elegimos el Datacore:

configuracion-datacore-vmware-serve-virtual-disk-to-hosts-2

Elegimos el Virtual Disk:

configuracion-datacore-vmware-serve-virtual-disk-to-hosts-3

Pulsamos Finish para que elija automáticamente:

configuracion-datacore-vmware-serve-virtual-disk-to-hosts-4

Arrancar parar servicio de DATACORE

Por si lo necesitáis, para parar o arrancar el servicio de Datacore vais a la sección Datacore Server Actions y podéis hacerlo desde el menú:

configuracion-datacore-vmware-servicio

 

La entrada Configuración Datacore con VMware aparece primero en VMware Blog.

Crear Sysprep en VMware para Linux y Windows

$
0
0

Crear Sysprep en VMware para Linux y Windows

Una forma de ahorrar tiempo y optimizar vuestras plantillas es utilizar el Administrador de especificaciones de personalización. ¿Por qué nos va a ahorrar tiempo y disgustos? Si os habéis peleado algo con sistemas operativos Windows, por ejemplo, normalmente van integrados en un directorio activo, llevan una licencia específica, se generan con un nombre concreto, etc.

Todo eso, son minutos de tu tiempo que puedes optimizar ya desde la generación de la máquina y olvidarte de un trabajo laborioso si vas a hacer muchas máquinas con la misma plantilla virtual.

Hoy os quiero mostrar como podemos realizar este trabajo, utilizando lo que nos dan los sistemas operativos, para Windows la herramienta Sysprep y para Linux lo haremos con lo que nos da Centos en mi caso.

Aunque lo podemos realizar directamente al generar la máquina desde plantilla, os lo enseño desde la consola. Abrimos nuestra consola de vcenter y nos vamos a Inicio –> Administrador de especificaciones de personalización:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-0

Pulsamos el botón de Crear una nueva especificación:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-1

Crear Sysprep Windows en VMware vCenter

Elegimos Windows, y como no tenemos un fichero personalizado le damos nombre y no marcamos la casilla:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-2

Damos los datos que queremos que existan, ejemplo, de nuestra empresa:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-3

Marcamos que se le de a Windows el nombre de la máquina virtual:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-4

Si disponéis de licencias es el momento de colocarlas:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-5

Introducir la contraseña de administrador y dejamos que arranque una vez automáticamente:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-6

Elegimos zona horaria:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-7

Ahora introducimos un comando para el primer arranque. Por ejemplo, que se actualice directamente al iniciar sesión:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-14

 

Aquí podéis elegir la red. Yo esto lo dejo por defecto:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-9

Ponemos una cuenta de dominio si queremos que se integre directamente:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-10

Esta es la parte más importante con una plantilla Windows, que es generar un SID nuevo, para luego no tener problemas con directorio activo o las licencias:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-12

Con esto ya tendríamos todo preparado:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-13

Crear Sysprep Linux en VMware vCenter

Ahora intentaremos crear una personalización para máquina centos. Elegimos Linux en el asistente:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-15

Dejamos que le ponga el nombre de la máquina virtual:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-161

Elegimos zona horaria:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-17

Ahora la red:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-18

Los DNS:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-19

Pulsamos Finalizar:

Crear-Sysprep-en-VMware-para-Linux-y-Windows-20

Ya veis que la parte Linux es muy limitada de momento.

 

 

La entrada Crear Sysprep en VMware para Linux y Windows aparece primero en VMware Blog.

Añadir VMware vCenter en Citrix XenDesktop

$
0
0

Añadir VMware vCenter en Citrix XenDesktop

Seguimos con el laboratorio de Xendesktop, y vamos a enseñaros como realizar la conexión de la infraestructura Citrix con nuestro VMware vCenter para poder generar un pool de máquinas virtuales que nos permitan tener unos escritorios compartidos.

Lo primero que haré es generar una carpeta en el vCenter para el pool:

añadir-vmware-vcenter-citrix-xendesktop-0

Ahora vamos a generar unos permisos de acceso siguiendo las pautas que marca Citrix. Podría hacer la conexión con el usuario administrador con todos los permisos, pero quiero hacerlo bien:

https://support.citrix.com/article/CTX214389

Creo una función nueva:

añadir-vmware-vcenter-citrix-xendesktop-1

Vamos añadiendo permisos en los diferentes grupos:

añadir-vmware-vcenter-citrix-xendesktop-2

añadir-vmware-vcenter-citrix-xendesktop-3

Podéis crear un grupo y luego añadir un usuario de servicio para darle esos permisos:

añadir-vmware-vcenter-citrix-xendesktop-4

Podéis hacerlo localmente o hacerlo con un usuario de dominio:

añadir-vmware-vcenter-citrix-xendesktop-5

Agregáis el usuario al grupo:

añadir-vmware-vcenter-citrix-xendesktop-6

Ahora simplemente le dais al usuario o grupo la función que habéis configurado:

añadir-vmware-vcenter-citrix-xendesktop-7

Ahora vamos al servidor que tiene los roles y abrimos Citrix Studio –> Alojamiento –> Agregar conexión y recursos:

añadir-vmware-vcenter-citrix-xendesktop-8

Introducimos los datos de nuestro vCenter:

añadir-vmware-vcenter-citrix-xendesktop-9

Deberemos confiar en el certificado:

añadir-vmware-vcenter-citrix-xendesktop-10

Es posible que no confíe en el certificado si la red no es la misma. Para ello tendríais que exportar el certificado en formato DER, llevarlo al DC, dar doble clic sobre él, importarlo como Local Machine a Trusted People.

Como nosotros no tenemos ese problemas proseguimos:

añadir-vmware-vcenter-citrix-xendesktop-11

Seleccionamos las ubicaciones:

añadir-vmware-vcenter-citrix-xendesktop-12

Damos un nombre y seleccionamos la red que nos interesa:

añadir-vmware-vcenter-citrix-xendesktop-13

Pulsamos Finalizar:

añadir-vmware-vcenter-citrix-xendesktop-14

Hay requisito de comunicaciones, el puerto 443 entre vCenter y DC

añadir-vmware-vcenter-citrix-xendesktop-15

Con esto ya tendríamos la conexión preparada para crear escritorios

La entrada Añadir VMware vCenter en Citrix XenDesktop aparece primero en VMware Blog.

Laboratorio VMware Integrated Containers

$
0
0

Laboratorio VMware Integrated Containers

En otras entradas ya hemos hablado de containers o dockers. En esta ocasión vamos a utilizar VMware Integrated Containers, que es la solución de VMware para implementar dockers en un entorno virtualizado. Para la instalación utilizaré mi habitual laboratorio con 2 ESXi 6.5 con vCenter 6.5 (HP Microservers de 16GB de RAM).

Así que necesitaremos el software que bajaremos desde el siguiente enlace con vuestra cuenta VMware:

https://my.vmware.com/web/vmware/details?downloadGroup=VIC130&productId=707&rPId=20855

Esta versión es un OVA de unos 3.2GB, y que la terminología lo determina abreviadamente como VIC.

laboratorio-vmware-integrated-containers-0

Los requisitos para desplegar este OVA versión 1.3 son:

  • vCenter Server 6.0 or 6.5
  • ESXi 6.0 or 6.5 para todos los hosts
  • 2 vCPUs
  • 8GB RAM
  • 80GB libres de disco

Instalación VMware Integrated Containers

Vamos a nuestra consola de vCenter y pulsamos botón derecho en el clúster –> Implementar plantilla desde OVF:

laboratorio-vmware-integrated-containers-1

Elegimos carpeta si la tenemos:

laboratorio-vmware-integrated-containers-2

Elegimos el ESXi:

laboratorio-vmware-integrated-containers-3

Pulsamos Siguiente:

laboratorio-vmware-integrated-containers-4

Aceptamos el contrato:

laboratorio-vmware-integrated-containers-5

Elegimos el storage y el tipo de aprovisionamiento (voy a dejar el de por defecto)

laboratorio-vmware-integrated-containers-6

Elegimos la red:

laboratorio-vmware-integrated-containers-7

Introducimos la contraseña de root y habilitamos SSH para poder gestionar el appliance:

laboratorio-vmware-integrated-containers-8

Podéis colocar una ip o dejar que el DHCP trabaje dejando los datos en blanco (yo ya tengo dhcp y dominio así que va ir en blanco):

laboratorio-vmware-integrated-containers-9

Os dejo como rellenarlo:

laboratorio-vmware-integrated-containers-10

Dejamos los puertos por defecto:

laboratorio-vmware-integrated-containers-11

Dejamos por defecto:

laboratorio-vmware-integrated-containers-12

Dejamos por defecto:

laboratorio-vmware-integrated-containers-13

Modificamos la contraseña del usuario por defecto vic:

laboratorio-vmware-integrated-containers-14

Pulsamos Finalizar

laboratorio-vmware-integrated-containers-15

Esperamos a que termine:

laboratorio-vmware-integrated-containers-16

Post-Instalación VMware Integrated Containers

Arrancamos la máquina y revisamos en la consola que ha arrancado:

laboratorio-vmware-integrated-containers-17

Accedemos a la url que nos indica https://192.168.2.219:9443/ e introducimos los datos de nuestro vcenter:

laboratorio-vmware-integrated-containers-18

Ya tenemos todo listo, pulsamos OPEN:

laboratorio-vmware-integrated-containers-19

Y tenemos acceso a la gestión:

laboratorio-vmware-integrated-containers-20

En las siguientes entradas crearemos contenedores y os explicaré como gestionarlos a través del propio vCenter con la instalación del plugin.

La entrada Laboratorio VMware Integrated Containers aparece primero en VMware Blog.

Instalar Plugin VIC para vCenter Server Appliance

$
0
0

Instalar Plugin VIC para vCenter Server Appliance

El otro día empezamos a instalar nuestro laboratorio de Dockers con la solución de VMware vSphere Integrated Containers. Uno de los pasos casi obligatorios, que no necesarios, es instalar el plugin de VIC en nuestro vCenter.

Como yo tengo el appliance, utilizaré la instalación en el appliance para ilustrarlo. Para que veáis que no es nada complicado, voy a lanzar la instalación desde mi Samsung Galaxy Note 8, con una aplicación que me permite hacer SSH.

Acordaros que hay que moverse en versión 6.0 o superior para realizarlo tanto en el vCenter como en los ESXi. En mi caso estoy en la versión 6.5

Instalando Plugin VMware VIC en Appliance

Lo primero que tenemos que hacer es comprobar que nuestro vCenter tiene SSH habilitado, y por supuesto, saber la contraseña de root. Así que lo comprobamos desde Inicio –> Administración –> Implementación –> Configuración del sistema –> Nodos –> Pulsamos sobre el vCenter –> Pestaña Administrar:

instalar-plugin-vic-para-vcenter-server-appliance-0

Una opción que no vamos a utilizar es subir directamente el fichero tar.gz del plugin desde la gestión de VIC (https://IP_VIC:9443)

instalar-plugin-vic-para-vcenter-server-appliance-1

Una vez todo comprobado, nos conectamos SSH a nuestro vCenter Server Appliance y lanzamos bash con el comando shell:

instalar-plugin-vic-para-vcenter-server-appliance-2

Lo que haremos ahora es generar dos variables que nos sirvan para simplificar la instalación. Lanzamos estos dos comandos:

  • Escribimos la dirección de nuestro vSphere Integrated Containers:
export VIC_ADDRESS=<i>vic_appliance_address</i>
  • El archivo tar.gz de nuestra versión vSphere Integrated Containers Engine:
export VIC_BUNDLE=vic_v1.3.0.tar.gz
  • Usaremos el comando CURL de la siguiente forma:
curl -kL https://${VIC_ADDRESS}:9443/files/${VIC_BUNDLE} -o ${VIC_BUNDLE}
instalar-plugin-vic-para-vcenter-server-appliance-3

Esto nos ha proporcionado el paquete, así que ahora tenemos que descomprimirlo:

tar -zxf ${VIC_BUNDLE}

instalar-plugin-vic-para-vcenter-server-appliance-4

Ahora navegamos hasta el directorio /vic/ui/VCSA, y lanzamos el fichero que permitirá la instalación

cd vic/ui/VCSA

./install.sh

Nos pedirá la IP de nuestro vCenter, y usuario/contraseña de administrador. Le decimos que SI en el certificado, esperamos a que el proceso termine:

 

instalar-plugin-vic-para-vcenter-server-appliance-6

 

Ahora para completar la instalación vamos a parar y arrancar los servicios para que la interfaz gráfica se “entere” de que hay un nuevo plugin:

  1. Para el cliente HTML5.
    service-control --stop vsphere-ui
    service-control --start vsphere-ui
  2. Para la versión FLASH.
    service-control --stop vsphere-client
    service-control --start vsphere-client

instalar-plugin-vic-para-vcenter-server-appliance-5instalar-plugin-vic-para-vcenter-server-appliance-7

Ahora podemos comprobar que está instalado:

instalar-plugin-vic-para-vcenter-server-appliance-8

Si hacéis click sobre él, al menos en mi caso, pero no tengo aún terminado de configurar mi Appliance VIC, seguiremos en otras entradas:

instalar-plugin-vic-para-vcenter-server-appliance-9

Entradas laboratorio VMware Integrated Containers:

 

La entrada Instalar Plugin VIC para vCenter Server Appliance aparece primero en VMware Blog.

Migrar en VMware los VMkernel a switch distribuido

$
0
0

Migrar en VMware los VMkernel a switch distribuido

Esta entrada la voy a hacer porque no me había dado cuenta que para lanzar Containers, la red tiene que ir sobre VMware vSphere Distributed Switch (VDS). Es un cambio significativo en el laboratorio, pero que tenía paralizado desde hace tiempo.

Así que vamos a explicar, de una manera “fácil y corta” en qué consiste un Switch Distribuido. Para ello, lo más fácil es explicar que diferencia fundamental hay entre un vSwitch Estándar y uno Distribuido.

  • La diferencia fundamental es que un switch estándar sólo funciona en un host esxi concreto. Yo no puedo compartir ese switch generado con otros hosts esxi. ¿Qué pasa con eso? Pues que cada vez que instalas un ESXi, tienes que replicar ese switch en todos los hosts que quieras añadir.
  • Por contra, un switch distribuido está pensado para ser flexible y evitar ese problema. Simplemente se lo tenemos que presentar a los hosts que nos interese para replicar la configuración. Digamos, que desde un punto de vista, es mucho más autónomo con respecto a switch estándar. Para ello se generan grupos dentro de DSwitch que se van presentando a los hosts que nos interesan. Facilita tareas más tediosas como introducir un hosts a un clúster.
  • Eso no quiere decir que un switch distribuido sea totalmente diferente a uno estándar, podemos configurar interfaces VMkernel (para gestión de tráfico entre los hosts), necesita adaptadores físicos para conectar la infraestructura virtual con la física, proporciona acceso a las máquinas virtuales a la red…
  • Adicionalmente, sobre un switch distribuido se pueden hacer gestiones extra que no tenemos en un switch estándar, como son control del tráfico o la seguridad.
  • Los grupos se gestionan desde el vCenter, por lo que todos los hosts deben estar dentro de la gestión del mismo. Con esto se asegura que un switch distribuido accede a la misma red física de todos los hosts, independientemente del que sea.

migrar-vmware-los-vmkernel-switch-distribuido-1

Así que partimos de la foto actual, que es como están configurados los 2 ESXi de mi laboratorio:

  • 2 vSwitchs
  • 3 VMKernel (Management Network, iSCSI y vMotion)

migrar-vmware-los-vmkernel-switch-distribuido-0

CREAR VSPHERE DISTRIBUTED SWITCH (VDS)

Entramos a la gestión de nuestro vCenter, apartado Redes. Pulsamos botón derecho sobre el centro de datos –> Distributed Switch –> Nuevo Distributed Switch…

crear-vsphere-distributed-switch-0

Le damos un nombre:

crear-vsphere-distributed-switch-1

Utilizaremos la última versión:

crear-vsphere-distributed-switch-2

Lo dejamos de momento por defecto:

crear-vsphere-distributed-switch-3

Y finalizar. Ya tenemos un grupo y switch distribuido creado, ahora hay que configurar y generar también otros grupos:

crear-vsphere-distributed-switch-4

En mi caso, he generado tres DGroups nuevos y he renombrado el generado para poder migrar mis VMKernel (ahora no tengo tantos adaptadores físicos, pero es como lo haré cuando compre las tarjetas apropiadas):

 

crear-vsphere-distributed-switch-6

Agregar hosts y VMKernel a VMware Distributed Switch (VDS)

Ahora vamos a agregar la parte “menos dolorosa” (dejamos iSCSI a parte) a nuestro DSwitch. Llevaremos los hosts, la Management Network y el vMotion al switch distribuido. Este proceso no es limpio porque no tengo mas que dos interfaces, cosa que voy a cambiar en breve, pero funciona.

Empezamos pulsando botón derecho sobre DSwitch –> Agregar y administrar hosts

migrar-maquinas-virtuales-a-vsphere-distributed-switch-0

Elegimos Agregar hosts:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-1-1

Añadimos los hosts:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-2

Seleccionamos los tres checks porque quiero migrar también las máquinas virtuales:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-3

Seleccionamos el interfaz que me interesa (vmnic1 en mis hosts es para iSCSI, así que lo descarto) y pulsamos Asignar vínculo superior:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-6

Asignación automática:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-7

Repetimos lo mismo para el otro host:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-8-1

 

Asignamos a cada interfaz el grupo correspondiente:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-9-2

 

Revisamos que no tenga impacto en nuestro infraestructura:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-12

Seleccionamos todas las máquinas virtuales pulsando CTRL y hacemos clic sobre Asignar grupo de puertos:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-13-1

Seleccionamos el DGroup de las máquinas virtuales

migrar-maquinas-virtuales-a-vsphere-distributed-switch-14-1

Y pulsamos Finalizar:

migrar-maquinas-virtuales-a-vsphere-distributed-switch-15-1

Migrar VMKernel iSCSI a VMware Distributed Switch (VDS)

Para migrar mis adaptadores iSCSI a VDS primero he liberado de máquinas virtuales la LUN correspondiente. Una vez hecho. desde la configuración de red de cada ESXi voy eliminando el adaptador iSCSI:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-1

Para ello vamos a Configurar –> Almacenamiento –> Enlaces de puertos y eliminamos:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-2

Decimos que SI:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-3

Repetimos el proceso en todos los esxi:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-4

Seleccionamos Administrar redes de host:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-5

Agregamos los hosts:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-6

Lo dejamos por defecto:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-7

Asignamos vínculo superior para la interfaz de iSCSI:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-8

Lo mismo con el VMkernel, asignamos grupo de puertos:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-9

Analizamos el impacto:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-10

Pulsamos Finalizar:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-11

Ahora tendremos que ir a la sección Almacenamiento de la configuración del ESXi y pulsamos Añadir enlace en el adaptador ISCSI

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-12

Elegimos el DSwitch al que hemos asignado el interfaz de iSCSI

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-13

Ahora tenemos que reescanear los adaptadores:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-14

Pulsamos Aceptar:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-15

Ya podemos eliminar el vSwitch antiguo:

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-16

Yo tengo que activar Jumbo Frames para que trabaje con la Synology. Así que, si pulsáis botón derecho Configuración –> Editar configuración, podéis modificar la MTU del DSwitch.

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-17

Y así ya podemos ver nuestro almacenamiento iSCSI a través de un switch distribuido

migrar-vmkernel-iscsi-a-vsphere-distributed-switch-18

Entradas laboratorio VMware Integrated Containers:

La entrada Migrar en VMware los VMkernel a switch distribuido aparece primero en VMware Blog.

Instalar driver ESXi tarjeta dual ethernet HP Microserver Gen8

$
0
0

Instalar driver ESXi tarjeta dual ethernet HP Microserver Gen8

Después de un buen tiempo, voy a hacer unas modificaciones a mis dos HP Microservers Gen8. Ya que no les puedo ampliar la memoria, los voy a dotar de interfaces de red. Para ello he encontrado una tarjeta Intel 82576 Gigabit Dual Port Network Connection a buen precio en Amazon. Tenía que ser PCIe 2.0 – 16x y tener adaptador de perfil bajo, a parte de ser Gigabit para completar las especificaciones.

A su vez, como me he quedado sin bocas en el switch para estos “inventos”, he comprado un D-Link Gigabit sin gestión, ya que ya tengo uno gestionable donde haré las modificaciones y pondré en la VLAN que corresponda.

Precio total, unos 47€ cada tarjeta y unos 30€ el switch.

Os dejo la referencia:

Aunque leí que las tarjetas eran compatibles, el ESXi no ha sido capaz de detectarlas por si solas (cosas de ser un sistema un poco “capado”). Así que le tendremos que ayudar un poco. Vamos a la página de compatibilidad y descargamos el driver para nuestra versión de ESXi.

ENLACE DESCARGA ESXi 6.5 U1: https://www.vmware.com/resources/compatibility/detail.php?deviceCategory=io&productid=9660.

instalar-driver-tarjeta-dual-ethernet-esxi-hp-microserver-gen8-0

Una vez que lo tenemos descargado lo descomprimimos y manos a la obra.

Instalar archivo VIB en VMware ESXi

Como no podía ser un siguiente-siguiente con un EXE, los amigos de VMware disponen de sus propios ficheros para sus controladores, llamándose VIB (vSphere Installation Bundle).

En mi caso venía en un .ZIP con los siguientes ficheros:

  • En la carpeta DOC te da unos ficheros TXT con los README de lo que vas a instalar.
  • Los drivers en formato VIB y ZIP para hacer offline desde consola (con el Update Manager no he visto como hacerlo en la versión 6.5U1, cosa que en las antiguas se hacía con una Baseline)
  • En la carpeta SOURCE, el driver en bruto

instalar-driver-tarjeta-dual-ethernet-esxi-hp-microserver-gen8-1

Instalación VIB desde consola del ESXi

Es el método que yo usaría. Pondría el esxi en mantenimiento primero:

vim-cmd hostsvc/maintenance_mode_enter

Lo más cómodo es subir el fichero VIB o ZIP con un programa tipo Filezilla (tiene que ir a la carpeta de los datastores, elegís uno /vmfs/volumes):

instalar-driver-tarjeta-dual-ethernet-esxi-hp-microserver-gen8-2A

Podéis hacerlo de dos formas según el fichero que uséis. Utilizamos ahora Putty, por ejemplo, para conectaros SSH:

esxcli software vib install -d "/vmfs/volumes/UUID_VUESTRO_STORAGE/NombreDriver.zip"

ó

esxcli software vib install -v "/vmfs/volumes/UUID_VUESTRO_STORAGE/NombreDriver.vib"

instalar-driver-tarjeta-dual-ethernet-esxi-hp-microserver-gen8-3

Si quisiéramos actualizar el paquete sería algo así:

esxcli software vib update -d "/vmfs/volumes/UUID_VUESTRO_STORAGE/NombreDriver.zip"

En ambos procesos tendréis que reiniciar el ESXi. Una vez arrancado todo, podéis comprobar que vemos la nueva tarjeta y sus dos Interfaces:

instalar-driver-tarjeta-dual-ethernet-esxi-hp-microserver-gen8-4

La entrada Instalar driver ESXi tarjeta dual ethernet HP Microserver Gen8 aparece primero en VMware Blog.


Configuracion VMware Virtual Container Host

$
0
0

Configuracion VMware Virtual Container Host

Seguimos con el laboratorio de dockers sobre VMware. En la anterior entrada instalamos el plugin VIC (al final de la entrada tenéis todas las entradas relacionadas) en nuestro laboratorio VMware Integrated Containers. Así que vamos a la versión HTML5 de nuestro vCenter para trabajar con el plugin, a la sección Accesos directos.

configuración-vmware-virtual-containers-0

Pulsamos sobre vSphere Integrated Containers:

configuración-vmware-virtual-containers-1

Ahora pulsamos sobre la pestaña Virtual Container Hosts –> New Virtual Container Host:

configuración-vmware-virtual-containers-2

Comentar que si usáis Chrome puede daros este error, es mejor hacerlo con Firefox, que no os generará el error:

configuración-vmware-virtual-containers-0A

Ahora damos un nombre al VCH y daremos un prefijo/sufijo como identificar a nuestro futuros dockers. Como veréis lo podemos hacer con nombres o Containers ID. A la hora de trabajar, probablemente uséis los IDS (identificador único del docker o contenedor) que los nombres, pero como hay que elegir uno, voy a usar los nombres para no liar a nadie:

configuración-vmware-virtual-containers-3

Elijo el clúster para este trabajo, y no limito de momento los recursos:

configuración-vmware-virtual-containers-4

Ahora elegiremos el almacenamiento adecuado, aunque tengo SSDs, de momento lo dejo en la Synology para mis pruebas. Utilizo una carpeta previamente creada, sino la generará.Un dato importante es que tenéis que tener claro el espacio que le vais a dar a los dockers, daros cuenta que eso no podréis modificarlo a posteriori para éste VCH, así que según con qué queráis jugar, os podéis quedar cortos (una de las gracias de trabajar con dockers es el poco espacio que ocupan). Yo lo subo a 16GB, pero con el valor por defecto de 8GB podría ser suficiente:

configuración-vmware-virtual-containers-5

Ahora nos encontramos con la sección Networks vamos a explicar con un par de gráficos descriptivos que podéis ayudar en la ayuda de VMware los puertos y el comportamiento de los dockers en cuanto a la red:

configuración-vmware-virtual-containers-7

configuración-vmware-virtual-containers-6

Antes del siguiente paso, tener claro que no os aparecerán redes si vuestro DSwitch tiene el bloqueo de puertos automático habilitado:

configuración-vmware-virtual-containers-8

Así que seguimos con los pasos. Dejaré la interfaz de mi red, aunque podría generarles otra para ellos, esto es un primer acercamiento a los dockers en VMware:

configuración-vmware-virtual-containers-9

No voy a dejar la seguridad por defecto, de momento lo deshabilito porque esto es un LAB, ya le daremos más adelante una vuelta:

configuración-vmware-virtual-containers-10

Lo dejo así:

configuración-vmware-virtual-containers-11

De momento le doy permisos a mi usuario administrador de vSphere:

configuración-vmware-virtual-containers-12

Y FINISH:

configuración-vmware-virtual-containers-13

Primer fallo al generar. Tengo que corregir alguna cosa. Necesito generar un interfaz nuevo para docker que llamaré DDockerBridge y abrir el firewall al puerto TCP-2377:

configuración-vmware-virtual-containers-14

Genero en mi DSwitch un nuevo Grupo de puertos distribuido llamado DDockerBridge:

configuración-vmware-virtual-containers-15

Abrimos el puerto TCP-2377 para cada ESXi o deshabilitamos con el comando “esxcli network firewall set --enabled false“:

configuración-vmware-virtual-containers-16

Con todo corregido…ya podemos generar nuestro primer VCH:

configuración-vmware-virtual-containers-17

Si queremos comprobar el estado pulsamos sobre el enlace generado a la derecha con la IP. Introducimos las credenciales que hemos configurado anteriormente:

configuración-vmware-virtual-containers-18

Y veremos su estado:

configuración-vmware-virtual-containers-19

Para terminar vamos a la gestión vSphere Integrated Container y agregamos el VCH:

configuración-vmware-virtual-containers-20

Introducimos los datos del VCH recién generado:

configuración-vmware-virtual-containers-21

Aceptamos el certificado:

configuración-vmware-virtual-containers-22

Y ya lo tenemos para poder generar dockers en otras entradas:

configuración-vmware-virtual-containers-23

Entradas laboratorio VMware Integrated Containers:

La entrada Configuracion VMware Virtual Container Host aparece primero en VMware Blog.

Crear docker en VMware

$
0
0

Crear docker en VMware

Volvemos al laboratorio de dockers en VMware, vamos a empezar a generarlos. Entramos en la gestión https://192.168.2.219:8282. Nuestro primer docker va a ser desde un repositorio público. Que viene a ser dockers base ya preparados que sólo tenemos que aprovisionar. Primero os diré las máquinas que intervendrán en la generación de nuestros containers:

  • vSphere Integrated Containers: 192.168.2.219
  • VCH: 192.168.2.228

Os explico como generar un docker rápido en modo BRIDGE:

Inicio –> Proyecto –> Biblioteca –> Repositorios públicos –> Voy a elegir library/httpd por ejemplo –> Pulsamos Aprovisionar

crear-docker-en-vmware-0

Vemos como se genera:

crear-docker-en-vmware-1

En la vista contenedores vemos que lo tenemos en ejecución:

crear-docker-en-vmware-3

Si pulsamos sobre él, veremos que está en ejecución, lo que consume y su IP:

crear-docker-en-vmware-4

Si vais a vuestro vCenter veréis la máquina generada:

crear-docker-en-vmware-5

 

Podéis lanzar también vuestro docker en una red con acceso a internet (pública), para ello en vez de pulsar Aprovisionar, desplegamos y pulsamos Introducir información adicional:

crear-docker-en-vmware-6

Se abrirá un asistente:

crear-docker-en-vmware-7

En el apartado RED, colocamos el puerto del host donde escuchará para el contenedor que vamos a generar y el puerto donde el contenedor escucha. Elegimos como red HOST:

crear-docker-en-vmware-8

Bueno y llegados a este punto, tenemos un docker generado de un repositorio público, corriendo en modo bridge o en una red pública en nuestra plataforma, sabemos su IP y que dispone por ejemplo del puerto 80 (HTTPD) publicado. ¿Cómo lo gestionamos entonces?

Aquí viene el kit de la cuestión en un docker, que voy a intentar explicar. Las acciones se realizan a través de SSH conectándonos a nuestro vSphere Integrated Containers (192.168.2.219)

crear-docker-en-vmware-9

Aunque, como veis, se pueden generar relativamente fácil sobre la interfaz web, tendréis que trabajar en cierta medida con la “pantalla negra”. Así que os explico brevemente como generar dockers con comando y en otra entrada vemos como manejarnos con ellos.

Primero vemos los datos de nuestros VCH
docker -H 192.168.2.228:2376 info

Descargamos la imagen:
docker -H 192.168.2.228:2376 pull wordpress

Revisamos que la tenemos en el listado;
docker -H 192.168.2.228:2376 images

Y creamos un docker a partir de la imagen:
docker -H 192.168.2.228:2376 run -name wordpress1 wordpress

Listamos el docker para ver su ID:
docker -H 192.168.2.228:2376 ps

Entradas laboratorio VMware Integrated Containers:

La entrada Crear docker en VMware aparece primero en VMware Blog.

Dibujos VMware para Visio

$
0
0

Dibujos VMware para Visio

Hoy una entrada corta, que intentaré alimentar. He recopilado unos cuantos iconos de VMWare para Microsoft Visio. Si os dedicáis a la informática, más tarde o más temprano necesitaréis echar mano de iconos para las presentaciones o la documentación que tengáis que realizar para vuestros clientes, por ejemplo.

Os dejo los enlaces:

ICONOS NSX

ICONOS VMW 1

ICONOS VMW 2

ICONOS VMW 3

ICONOS VISIO VEEAM 1

ICONOS VISIO VEEAM 2

iconos-vmware-visio

La entrada Dibujos VMware para Visio se publicó primero en VMware Blog.

VMWare vExpert 2018

$
0
0

Otro año más tenemos la suerte de recibir el premio VMware vExpert 2018.

Éste año se ha hecho de rogar…pero ya está aquí.

Gracias a tod@s, enhorabuena al resto de vExperts y a por nuevos retos

La entrada VMWare vExpert 2018 se publicó primero en VMware Blog.

Ravello VMware ESX

$
0
0

Crear VMware ESX en Ravello

Ravello Systems es un servicio Cloud de gran calidad, que hace un tiempo fue comprado por toda una compañía como Oracle. Los VMware vExperts lo conocemos, porque llevan varios años regalándonos acceso a su plataforma para poder generar laboratorios.

Este año nos han regalado 1000 horas mensuales, así que intentaré sacarle provecho todo lo que pueda.

Hoy os quiero enseñar como crear un servidor ESX en modo Nested en la plataforma, por si os animáis a contratarlo, ya que si buscáis un servicio cloud de calidad, con servicio internacional, a buen precio, es una gran alternativa.

Lo primero que debemos hacer es entrar en la URL: https://cloud.ravellosystems.com e introducir nuestras credenciales:

ravello-vmware-esx-1

Una vez que entramos, pulsamos en Library:

ravello-vmware-esx-2

Subiremos una iso de VMware ESX en la sección Disk Images:

ravello-vmware-esx-3

Pulsamos en Import Disk Image:

ravello-vmware-esx-4

Descargamos la aplicación Ravello VM Import Tool:ravello-vmware-esx-5

Instalamos la aplicación en nuestro ordenador:

ravello-vmware-esx-6

Automáticamente se lanza un navegador que nos pedirá nuestras credenciales de Ravello:

ravello-vmware-esx-7

Pulsamos Upload New Item:

ravello-vmware-esx-8

Queremos cargar una ISO, así que seleccionamos la opción y así que pulsamos Start:

ravello-vmware-esx-9

Elegimos y pulsamos Upload:

ravello-vmware-esx-10

Esperamos que cargue:

ravello-vmware-esx-11

Ya tendremos la ISO para poder utilizarla en nuestro ESX:

ravello-vmware-esx-12

También generamos una Elastic IP Address desde el menú Library:

ravello-vmware-esx-13

Elegimos la location que nos interese y pulsamos Create:

ravello-vmware-esx-14

Tendremos la IP preparada en segundos:

ravello-vmware-esx-15

Adicionalmente, creamos una Key Pairs desde también el menú Library. Nos generará un fichero PEM que se descargará automáticamente y nos permitirá conectarnos a las máquinas virtuales:

ravello-vmware-esx-16

Generamos una Key de forma automática:

ravello-vmware-esx-17

Ahora vamos a crear una aplicación desde el menú Applications -> Create Applications:

ravello-vmware-esx-18

Le damos un nombre:

ravello-vmware-esx-19

Vamos a la pestaña Canvas. Ravello ya tiene generada unas plantillas que utilizar. Arrastramos directamente la que se llama Empty ESX al centro:

ravello-vmware-esx-20

Lo primero que hay que hacer es ir a Disks –> Y mapeamos la imagen que hemos cargado en el DVD:

ravello-vmware-esx-21

Seleccionamos la imagen del ESX:

ravello-vmware-esx-22

Pulsamos Save:

ravello-vmware-esx-23

Pulsamos Publish:

ravello-vmware-esx-24

Pulsamos Publish:

ravello-vmware-esx-25

Esto si le llevará unos minutos, no muchos, tenéis que esperar a que desaparezca el reloj. Daros cuenta lo que tarda un proveedor de Internet en gestionar esto. Aquí no son más de 5 minutos, y genera automáticamente servidor DHCP, DNS, REDES, ROUTER,…muy impresionante:

ravello-vmware-esx-26

Veremos en la máquina la IP/Nombre para acceder desde fuera en la sección VM a Started:

ravello-vmware-esx-27

Para realizar la instalación una arrancada, pulsamos Console:

ravello-vmware-esx-28

Aquí no tiene mucho misterio, hacer una instalación común de ESX:

ravello-vmware-esx-29

Disponéis de un mega teclado virtual para ayudaros con la instalación:

ravello-vmware-esx-30

Desmapeamos la ISO una vez terminada la instalación. Acordaros en hacer Save e Upload y esperar a que termine:

ravello-vmware-esx-31

En la sección Network podéis ver el detalle de todas las redes, así como se ha generado también automáticamente una regla NAT en el FW para tener acceso externo:

ravello-vmware-esx-32

Para poder gestionar el esx, a parte de SSH habilitamos el puerto 80. Vamos a Network –> VM –> Supplied Services:

ravello-vmware-esxi

Añadimos los puertos 80 y 443:

ravello-vmware-esxi-1

Y pulsamos Update para ejecutar los cambios:

ravello-vmware-esxi-2

Y así ya tenemos acceso a la gestión desde fuera:

ravello-vmware-esxi-3

Veremos qué cosas adicionales podemos hacer en próximas entradas.

La entrada Ravello VMware ESX se publicó primero en VMware Blog.

Viewing all 196 articles
Browse latest View live