kubernetes einfach mit rancher (akube Part 1)

In diesem Beitrag soll es um die Server gehen. Für die Verwaltung des Clusters verwende ich Rancher.

kubernetes einfach mit rancher (akube Part 1)

Inhalt

  • akube Part 1: Überblick
  • akube Part 2: Die Server
  • akube Part 3: Rancher als Docker?
  • akube Part 4: Der Cluster
  • akube Part 5: GlusterFS zum Lagern
  • akube Part 6: Cert-Manager und Selfsigned Zertifikate mit Let´s encrypt
  • akube Part 7: Ghost Blog mit Helm
  • akube Part 8: Backups

Der Anfang

In diesem Beitrag soll es um die Server gehen. Für die Verwaltung des Clusters verwende ich Rancher. Rancher läuft als docker Container auf einen der Server, dieser Server ist kein Teil des Clusters. Theoretisch könnte ich mit Rancher mehrere Cluster verwalten, aktuell habe ich nur ein Cluster erstellt.

Rancher: Verwaltung des akube Cluster

So ein Cluster braucht auch ein Speicher-Management, hierfür kann man in Rancher Storage Klassen an der Oberfläche erstellen. Für meinen Cluster verwende ich glusterfs mit heketi als Volume-Manager.

Ich habe aktuell 4 vServer welche bei verschiedenen Anbietern gehosted werden. 3 werden bei Netcup und der andere bei 1blu gehosted. Alle laufen mit Ubuntu 18.04 (was zum Zeitpunkt wo dieser Beitrag geschrieben wird die aktuelle Ubuntu LTS ist), haben docker und docker-compose installiert und eine aktivierte Firewall (ich habe ufw für die Verwaltung verwendet).

Name Fiktive IP Hoster Verwendung Betriebssystem
rancher 10.0.0.1 1blu Rancher UI Ubuntu 18.04
akube01 11.0.0.1 netcup k8s Node / Storage Ubuntu 18.04
akube02 11.0.0.2 netcup k8s Node / Storage Ubuntu 18.04
akube03 11.0.0.3 netcup k8s Node / Storage Ubuntu 18.04

Alle Server haben eine physikalische Netzwerkkarte (damit meine ich nicht die vom Host, physikalisch im Kontext jeder virtuellen Maschine, somit sollte es politisch korrekt sein) mit einer vom Hoster zugewiesenen festen ip (ipv4, sieht man aber in der Tabelle).

Aktuell habe ich 3 Projekte auf denen heketi-glusterfs, prometheus, grafana, nginx, cert-manager (helm-chart) und eine Webanwendung als Workloads verteilt sind.

Dieser Post war als kleiner Überblick gedacht, im nächsten Post werde ich erklären, wie ich die Server einzeln konfiguriert habe (firewall, ssh login mit Zertifikat, etc.).

Das Original findet ihr hier