Skip to content

efcunha/Rancher-v2.6-HA

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

66 Commits
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

Rancher v2.6.x - RKE1/RKE2 - Alta Disponibilidade

Repositório utilizado para mostrar a instalação do Rancher em HA.

https://rancher.com/docs/rancher/v2.x/en/installation/how-ha-works/

rancher-kubernetes-producao

Iniciando o dia....

Estes são os itens que ao sentar na cadeira, nós iremos fazer um checklist e verificar TODOS:

  • Máquinas estão online no virtualizador ou na nuvem ?
  • RancherServer está online e acessível ?
  • Cluster's kubernetes estão todos online e com seus nodes funcionando ?
  • Monitoramento dos clusters está habilitado e funcionando ?
  • Sistema de log dos cluster's está habilitado e funcionando ?
  • Sistema de DNS dos cluster's está habilitado e funcionando ?
  • Sistema de volumes dos clusters está habilitado e funcionando ?
  • Ferramenta de Registro de imagens está online e funcionando ?
  • Revisão dos backups se estão sendo executados.
  • Aplicações que fazem a limpeza no cluster estão rodando sem problemas? Verificar os logs.
  • Comandos de kubectl respondem normalmente ?

Ferramentas periféricas

  • Ferramenta de integração contínua, online e funcionando? Se for o pipeline do Rancher, é na lista anterior.
  • Ferramenta de repositório de código, git, online e funcionando ?

Itens para ficar atento

  • Quantidade de espaço em disco disponível nos worker's
  • Consumo excessivo de recursos como CPU ou MEMÓRIO por algum container, pois significa que não foi aplicada a política controle de recursos.

CASO todos os itens acima tenham sido revisados e estejam OK, dai então podemos ir para as aplicações rodando dentro do cluster.

Principais problemas

  • Meu cluster não sobe
  • Verificar portas abertas
  • Verificar logs dos containers nos nós
  • DNS, propagação de domínio
  • Minha aplicação não sobe
  • Os nós do cluster não se comunicam
  • Meu pod está online, mas minha aplicação não
  • Não consigo acessar minha aplicação
  • Onde vejo os logs
  • Onde vejo o monitormento ?
  • Onde acompanho os deployment's ?
  • Pipeline com problema, como resolvo ?

Referências

Nirmata - Day 2 Kubernetes!

ITOPS Times - Gerenciando Kubernetes no 2

O Kubernetes passou do Dia 0 e do Dia 1 e agora está na fase do Dia 2 para a maioria das empresas. De acordo com Tobi Knaup, co-CEO e cofundador da empresa de gerenciamento nativo da nuvem D2IQ, o Dia 0 é a fase de design e prova de conceito, o Dia 1 é a fase de instalação e implantação e o Dia 2 é quando coisas como monitoramento, manutenção e a solução de problemas entram em jogo. O dia 2 também é quando um aplicativo passa de apenas um projeto de desenvolvimento para uma vantagem estratégica real para o negócio.

A capacidade de monitoramento também é importante por causa de todas as tecnologias que interagem com o Kubernetes. Quando você está executando clusters do Kubernetes, muitas vezes ele está sendo implantado junto com uma série de outras tecnologias. De acordo com Knaup, você precisa ser capaz de ter dados de telemetria ao vivo em todas as partes do sistema e ser capaz de depurar e diagnosticar problemas e encontrar sua causa raiz. “Todas essas são preocupações que, na verdade, o próprio Kubernetes não resolve”, disse Knaup. “Portanto, você precisa reunir uma pilha inteira de outras tecnologias de código aberto no ecossistema nativo da nuvem, para construir, por exemplo, uma pilha de monitoramento ou para construir uma história de segurança forte.”

Existem várias ferramentas que podem ajudar no monitoramento do Kubernetes, como Prometheus, Jaeger ou Fluentd, apenas para citar alguns. Pemmaraju recomenda que os administradores de TI não apenas obtenham treinamento no Kubernetes, mas também se familiarizem com o que está acontecendo no ecossistema Kubernetes. “Não se trata apenas do Kubernetes, mas dos serviços em torno dele, seja rede, armazenamento, monitoramento, alerta. Todas essas são coisas com as quais você precisa se familiarizar rapidamente ”, disse Pemmaraju.

Outra consideração no Dia 2 é a escalabilidade. Quando as empresas começam a usar o Kubernetes, podem ter alguns clusters em execução. Mas, de acordo com Knaup, o uso do Kubernetes pode se espalhar rapidamente por toda a organização depois que esses primeiros projetos forem implantados, portanto, ter a capacidade de escalonar é importante.

Freqüentemente, o Kubernetes é adotado de baixo para cima, o que significa que as equipes adotam o Kubernetes separadamente. Eventualmente, as organizações precisam consolidar tudo isso de forma consistente.

Os operadores do Kubernetes ajudam na automação

Depois que uma empresa aborda essas preocupações gerais, que tipo de ferramenta a ajudará no Dia 2? De acordo com Knaup, os operadores tornam-se essenciais nesta fase. Os operadores do Kubernetes são ferramentas que basicamente automatizam a operação de cargas de trabalho complexas do segundo dia. Mais especificamente, de acordo com OperatorHub, os operadores implementam e automatizam atividades comuns do Dia 1, como instalação e configuração, e atividades do Dia 2, como reconfiguração, atualizações, backups, failovers, etc.

OperatorHub é um índice de operadores da comunidade que são empacotados para implantação em clusters Kubernetes. OperatorHub foi lançado pela Red Hat, os criadores do Operator Framework. Amazon, Microsoft e Google também estavam no grupo inicial de suporte ao OperatorHub.

Operator Hub

GitOps surge como uma metodologia poderosa para os desenvolvedores interagirem com o Kubernetes

Outra coisa que Knaup recomenda que as empresas examinem ao entrar no Dia 2 é o GitOps. Por causa da atual pandemia global, a KubeCon EU foi cancelada, mas de acordo com Knaup, cerca de 20% das negociações programadas eram sobre GitOps.

GitOps é uma metodologia iniciada em 2017 na Weaveworks. De acordo com a Weaveworks, GitOps usa “Git como uma única fonte de verdade para infraestrutura declarativa e aplicativos. Com o Git no centro de seus canais de entrega, os desenvolvedores podem fazer solicitações pull para acelerar e simplificar as implantações de aplicativos e tarefas operacionais para o Kubernetes.”

Requisitos

1 DNS 1 máquina para load balancer VIP 3 máquinas para o rancher-server

Utilizado na demonstração: UBUNTU 20.04 LTS

Docker instalado em todas as máquinas

sudo apt update
sudo apt install apt-transport-https ca-certificates curl software-properties-common
sudo su
curl https://releases.rancher.com/install-docker/20.10.sh | sudo bash -
usermod -aG docker ubuntu

Instalar Rancher Com Certificado TLS

openssl x509 -in tls.crt -out input.der -outform DER
openssl x509 -in input.der -inform DER -out cacerts.pem -outform PEM

Copiar o certificado crt para os hosts

scp tls.crt 172.16.0.13 [14..31]:

ssh 172.16.0.13 [14..31]
sudo -s
mv tls.crt /usr/local/share/ca-certificates/
update-ca-certificates

Portas

https://rancher.com/docs/rancher/v2.x/en/installation/requirements/ports/

RKE

https://rancher.com/docs/rancher/v2.x/en/installation/k8s-install/create-nodes-lb/

Por que três nós?

Em um cluster RKE, os dados do servidor Rancher são armazenados no etcd. Este banco de dados etcd é executado em todos os três nós.

O banco de dados etcd requer um número ímpar de nós para que possa sempre eleger um líder com a maioria do cluster etcd.

Se o banco de dados etcd não puder eleger um líder, o etcd pode sofrer a perda do lider, exigindo que o cluster seja restaurado do backup.

Se um dos três nós etcd falhar, os dois nós restantes podem eleger um líder porque eles têm a maioria do número total de nós etcd.

INICIO

Logar na máquina do ELB - onde tudo será realizado Instalar o kubectl nela também Instalar o RKE nela também.

ssh [email protected]    # - NGINX - ELB

ssh [email protected]   # - RANCHER-SERVER-1
ssh [email protected]   # - RANCHER-SERVER-2
ssh [email protected]   # - RANCHER-SERVER-3

Instalar Kubectl

Linux

curl -LO https://storage.googleapis.com/kubernetes-release/release/`curl -s https://storage.googleapis.com/kubernetes-release/release/stable.txt`/bin/linux/amd64/kubectl
chmod +x ./kubectl
sudo mv ./kubectl /usr/local/bin/kubectl
kubectl version --client

Instalar RKE (Rancher Kubernetes Engine)

O RKE é uma distribuição Kubernetes com certificação CNCF que resolve complexidades de instalação comuns do Kubernetes, removendo a maioria das dependências de host, apresentando um caminho estável para implantação, atualizações e reversões.

Linux

curl -s https://api.github.com/repos/rancher/rke/releases/latest | grep download_url | grep amd64 | cut -d '"' -f 4 | wget -qi -
chmod +x rke_linux-amd64
sudo mv rke_linux-amd64 /usr/local/bin/rke
rke --version

COPIAR rancher-cluster.yml para Servidor

Utilizar o user "ubuntu"

ssh-keygen
vi ~/.ssh/id_rsa
chmod 600 /home/ubuntu/.ssh/id_rsa

Copiar a chave gerada para os outros hosts.

ssh-copy-id username@remote_host

Rodar RKE

rke up --config ./rancher-cluster.yml

Após o cluster subir:...

export KUBECONFIG=$(pwd)/kube_config_rancher-cluster.yml
kubectl get nodes
kubectl get pods --all-namespaces

Salvar os Arquivos

Instalar HELM

O Helm é uma ferramenta de empacotamento de software livre que ajuda você a instalar e gerenciar o ciclo de vida de aplicativos kubernetes. ... Assim como os gerenciadores de pacotes do Linux, como apt e yum, o Helm é usado para gerenciar os gráficos do kubernetes, que são pacotes de recursos kubernetes pré-configurados

Linux

curl -fsSL -o get_helm.sh https://raw.githubusercontent.com/helm/helm/master/scripts/get-helm-3
chmod 700 get_helm.sh
./get_helm.sh

Instalar o Rancher - Preparar

helm repo add rancher-stable https://releases.rancher.com/server-charts/stable
kubectl create namespace cattle-system

Certificate utilizando o Manager (Caso vc tenha os certificados ssl pule esta etapa)

kubectl apply --validate=false -f https://github.com/jetstack/cert-manager/releases/download/v1.8.2/cert-manager.crds.yaml

kubectl create namespace cert-manager

helm repo add jetstack https://charts.jetstack.io
helm repo update

helm install \
  cert-manager jetstack/cert-manager \
  --namespace cert-manager \
  --version v1.8.2

kubectl get pods -n cert-manager

Instalar Rancher

helm install rancher rancher-stable/rancher \
--namespace cattle-system \
--set hostname=rancher.xxxx.xx.br

Verificar deployment

kubectl -n cattle-system rollout status deploy/rancher
kubectl -n cattle-system get deploy rancher

Create the certificate secret resource

kubectl -n cattle-system create secret tls tls-rancher-ingress --cert=./tls.crt --key=./tls.key 

Create the CA certificate secret resource

kubectl -n cattle-system create secret generic tls-ca --from-file=cacerts.pem

Instalar Rancher

helm --install rancher rancher-stable/rancher \
  --namespace cattle-system \
  --set hostname=rancher.my.org \
  --set ingress.tls.source=secret \
  --set privateCA=true

kubectl -n cattle-system rollout status deploy/rancher

kubectl -n cattle-system get deploy rancher

Como alternativa, para atualizar uma chave de um certificado existente:

kubectl delete secret -n cattle-system tls-rancher-ingress

kubectl -n cattle-system create secret tls tls-rancher-ingress \
  --cert=tls.crt \
  --key=tls.key \
  --dry-run --save-config -o yaml | kubectl apply -f -

Para atualizar um certificado existente tls-ca secret:

kubectl -n cattle-system create secret generic tls-ca \
  --from-file=cacerts.pem \
  --dry-run --save-config -o yaml | kubectl apply -f -

Reconfigure o Rancher deployment

helm get values rancher -n cattle-system

helm ls -A

helm upgrade rancher rancher-stable/rancher \
  --version <DEPLOYED_CHART_VERSION> \
  --namespace cattle-system \
  --set hostname=rancher.my.org \
  --set ingress.tls.source=secret \
  --set privateCA=true

Link com mais informações

Acesse a pagina

Rodar o Nginx

$ vi /etc/nginx.conf

worker_processes 4;
worker_rlimit_nofile 40000;

events {
    worker_connections 8192;
}

stream {
    upstream rancher_servers_http {
        least_conn;
        server <SERVER1>:80 max_fails=3 fail_timeout=5s;
        server <SERVER2>:80 max_fails=3 fail_timeout=5s;
        server <SERVER3>:80 max_fails=3 fail_timeout=5s;
    }
    server {
        listen 80;
        proxy_pass rancher_servers_http;
    }

    upstream rancher_servers_https {
        least_conn;
        server <SERVER1>:443 max_fails=3 fail_timeout=5s;
        server <SERVER2>:443 max_fails=3 fail_timeout=5s;
        server <SERVER3>:443 max_fails=3 fail_timeout=5s;
    }
    server {
        listen     443;
        proxy_pass rancher_servers_https;
        ssl_certificate /opt/ssl/tls.crt;
        ssl_certificate_key /opt/ssl/tls.key;
        ssl_session_cache shared:SSL:10m;
        ssl_session_timeout 5m;
        ssl_protocols TLSv1.2 TLSv1.3;
        ssl_prefer_server_ciphers on;
        ssl_dhparam /opt/ssl/dhparam.pem;
        ssl_ciphers ECDHE-ECDSA-AES128-GCM-SHA256:ECDHE-ECDSA-AES256-GCM-SHA384:ECDHE-ECDSA-AES128-SHA:ECDHE-ECDSA-AES256-SHA:ECDHE-ECDSA-AES128-SHA256:ECDHE-ECDSA-AES256-SHA384:ECDHE-RSA-AES128-GCM-SHA256:ECDHE-RSA-AES256-GCM-SHA384:ECDHE-RSA-AES128-SHA:ECDHE-RSA-AES256-SHA:ECDHE-RSA-AES128-SHA256:ECDHE-RSA-AES256-SHA384:DHE-RSA-AES128-GCM-SHA256:DHE-RSA-AES256-GCM-SHA384:DHE-RSA-AES128-SHA:DHE-RSA-AES256-SHA:DHE-RSA-AES128-SHA256:DHE-RSA-AES256-SHA256;
    }
}
docker run -d --restart=unless-stopped \
-p 80:80 -p 443:443 \
-v /etc/nginx.conf:/etc/nginx/nginx.conf \
nginx:latest

Kubernetes-HA - Alta Disponibilidade

Repositorio usado para mostrar instalação do Rancher em HA.

https://rancher.com/docs/rancher/v2.x/en/troubleshooting/kubernetes-components/etcd/

https://rancher.com/learning-paths/building-a-highly-available-kubernetes-cluster/

k8s-distribuicao

Requisitos

Cluster Kubernetes HA de Produção

3 instâncias para ETCD

  • Podendo perder 1

2 instâncias para CONTROLPLANE

  • Podendo perder 1

4 instâncias para WORKER

  • Podendo perder todas

Usando na demonstração: UBUNTU 21.04

Docker instalado em todas as máquinas

sudo apt update
sudo apt install apt-transport-https ca-certificates curl software-properties-common
sudo su
curl https://releases.rancher.com/install-docker/20.10.sh | sh
sudo usermod -aG docker ubuntu

INICIO

Abrir o Rancher e criar um novo cluster.

Adicionar novo cluster com Existing Nodes

Podendo ser criado na versão Rancher 2.6.2 tanto em RKE1 ou RKE2

#ETCD
# Processador= 4 / Memória= 10

ssh [email protected]   # - etcd01 
ssh [email protected]   # - etcd02
ssh [email protected]   # - etcd03

#CONTROLPLANE
# Processador= 8 / Memória= 8

ssh [email protected]   # - controlplane01 
ssh [email protected]   # - controlplane02

#WORKER
# Processador/Memória = Onde irá rodar seus Pods

ssh [email protected]  # - worker01
ssh [email protected]  # - worker02
ssh [email protected]  # - worker03
ssh [email protected]  # - worker04

Exemplos RKE

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name etcd-1 --etcd

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://3.227.241.169 --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name etcd-2 --etcd

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name etcd-3 --etcd

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name controlplane-1 --controlplane

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name controlplane-2 --controlplane

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name worker-1 --worker

# docker run -d --privileged --restart=unless-stopped --net=host -v /etc/kubernetes:/etc/kubernetes -v /var/run:/var/run rancher/rancher-agent:v2.5.0 --server https://rancher.org.br --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum 7c481267daae071cd8ad8a9dd0f4c5261038889eccbd1a8e7b0aa1434053731b --node-name worker-2 --worker

RKE2

download

RKE2, também conhecido como RKE Government, é a distribuição Kubernetes de próxima geração do Rancher.

É uma distribuição do Kubernetes em total conformidade com o foco na segurança e conformidade dentro do setor do governo federal dos EUA.

Para cumprir esses objetivos, RKE2 faz o seguinte:

  • Fornece padrões e opções de configuração que permitem que os clusters sejam aprovados no CIS Kubernetes Benchmark v1.5 ou v1.6 com intervenção mínima do operador
  • Permite conformidade com FIPS 140-2
  • Verifica regularmente os componentes em busca de CVEs usando trivy em nosso pipeline de construção

Qual é a diferença entre RKE ou K3s?

O RKE2 combina o melhor dos dois mundos da versão 1.x do RKE (doravante referido como RKE1) e K3s.

Do K3s, ele herda a usabilidade, facilidade de operações e modelo de implantação.

Do RKE1, ele herda o alinhamento próximo com o Kubernetes upstream.

Em alguns lugares, o K3s divergiu do Kubernetes upstream para otimizar as implantações de borda, mas RKE1 e RKE2 podem ficar estreitamente alinhados com o upstream.

É importante ressaltar que o RKE2 não depende do Docker como o RKE1. O RKE1 aproveitou o Docker para implantar e gerenciar os componentes do plano de controle, bem como o tempo de execução do contêiner para Kubernetes. O RKE2 lança os componentes do plano de controle como pods estáticos, gerenciados pelo kubelet. O tempo de execução do contêiner integrado é containerd.

Por que dois nomes?

Ele é conhecido como RKE Government para transmitir os principais casos de uso e o setor que ele visa atualmente.

Exemplos RKE2

rke2

--etcd --controlplane --worker

curl -fL --insecure https://rancher.org.br/system-agent-install.sh | sudo  sh -s - --server https://rancher.tcemt.tc.br --label 'cattle.io/os=linux' --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum c9ce43df5750df92e44a1b3c2a74c8df165e77b76ad80a626b313196064bf4ef --etcd --node-name etcd01

curl -fL --insecure https://rancher.org.br/system-agent-install.sh | sudo  sh -s - --server https://rancher.tcemt.tc.br --label 'cattle.io/os=linux' --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum c9ce43df5750df92e44a1b3c2a74c8df165e77b76ad80a626b313196064bf4ef --etcd --node-name etcd02

curl -fL --insecure https://rancher.org.br/system-agent-install.sh | sudo  sh -s - --server https://rancher.tcemt.tc.br --label 'cattle.io/os=linux' --token zw9dgzb99n7fkg7l7lsb4wn6p49gmhcfjdp9chpzllzgpnjg9gv967 --ca-checksum c9ce43df5750df92e44a1b3c2a74c8df165e77b76ad80a626b313196064bf4ef --etcd --node-name etcd03

Configurando o Traefik 2.X como Ingress

Configuração traefik 2.x com TLS

Acesse a pagina

Rancher Backup ou Kasten K10

Este chart oferece a capacidade de fazer backup e restaurar o aplicativo Rancher em execução em qualquer cluster do Kubernetes.

Consulte este repositório para obter detalhes de implementação.

Obter informações do repositório

Acesse a pagina

helm repo add rancher-chart https://charts.rancher.io
helm repo update

Install Chart

helm install rancher-backup-crd rancher-chart/rancher-backup-crd -n cattle-resources-system --create-namespace 
helm install rancher-backup rancher-chart/rancher-backup -n cattle-resources-system -f values.yaml

Configuração de local de armazenamento padrão

Configure um local de armazenamento onde todos os backups são salvos por padrão. Você terá a opção de substituir isso com cada backup, mas estará limitado a usar um armazenamento de objeto compatível com S3 ou Minio.

Para obter informações sobre como configurar essas opções, consulte esta página.

Exemplo de values.yaml para o Helm Chart de backup do Rancher

O exemplo values.yaml O arquivo pode ser usado para configurar o operador de backup do rancher quando o Helm CLI é usado para instalá-lo.

nano values.yaml

image:
  repository: rancher/backup-restore-operator
  tag: v2.0.1

## Default s3 bucket for storing all backup files created by the rancher-backup operator
s3:
  enabled: false
  ## credentialSecretName if set, should be the name of the Secret containing AWS credentials.
  ## To use IAM Role, don't set this field
  credentialSecretName: creds 
  credentialSecretNamespace: ""
  region: us-west-2
  bucketName: rancherbackups
  folder: base folder
  endpoint: s3.us-west-2.amazonaws.com
  endpointCA: base64 encoded CA cert
  # insecureTLSSkipVerify: optional

## ref: http://kubernetes.io/docs/user-guide/persistent-volumes/
## If persistence is enabled, operator will create a PVC with mountPath /var/lib/backups
persistence: 
  enabled: true

  ## If defined, storageClassName: <storageClass>
  ## If set to "-", storageClassName: "", which disables dynamic provisioning
  ## If undefined (the default) or set to null, no storageClassName spec is
  ##   set, choosing the default provisioner.  (gp2 on AWS, standard on
  ##   GKE, AWS & OpenStack). 
  ## Refer to https://kubernetes.io/docs/concepts/storage/persistent-volumes/#class-1
  ##
  storageClass: "managed-nfs-storage"

  ## If you want to disable dynamic provisioning by setting storageClass to "-" above, 
  ## and want to target a particular PV, provide name of the target volume 
  volumeName: ""

  ## Only certain StorageClasses allow resizing PVs; Refer to https://kubernetes.io/blog/2018/07/12/resizing-persistent-volumes-using-kubernetes/
  size: 100Gi

global:
  cattle:
    systemDefaultRegistry: ''
  kubectl:
    repository: rancher/kubectl
    tag: v1.20.2

nodeSelector: {}

tolerations: []

affinity: {}

Upgrading Chart

helm upgrade rancher-backup-crd -n cattle-resources-system
helm upgrade rancher-backup -n cattle-resources-system 

Uninstall Chart

helm uninstall rancher-backup -n cattle-resources-system
helm uninstall rancher-backup-crd -n cattle-resources-system

Para mais informação acesse aqui.

License

Copyright (c) 2014-2018 Rancher Labs, Inc.

Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at

http://www.apache.org/licenses/LICENSE-2.0

Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License.

Releases

No releases published

Packages

No packages published