diff --git a/content/pt-br/docs/concepts/gopass.md b/content/pt-br/docs/concepts/gopass.md new file mode 100644 index 0000000000000000000000000000000000000000..b90a8bfa8d957740a0ec51d1204d69aac9bbf7f9 --- /dev/null +++ b/content/pt-br/docs/concepts/gopass.md @@ -0,0 +1,9 @@ +--- +title: gopass +description: Gerenciador de senhas +--- + +O gopass é um gerenciador de senhas. + +## Referências: +- <https://www.gopass.pw/> diff --git a/content/pt-br/docs/concepts/harbor.md b/content/pt-br/docs/concepts/harbor.md new file mode 100644 index 0000000000000000000000000000000000000000..dfd8a8cb5d296d25cb8985be90615564650b2e7f --- /dev/null +++ b/content/pt-br/docs/concepts/harbor.md @@ -0,0 +1,9 @@ +--- +title: Harbor +description: Container Registry +--- + +O Harbor é um armazenador de imagens de containers. + +## Referências +- <https://goharbor.io/> diff --git a/content/pt-br/docs/guides/_index.md b/content/pt-br/docs/guides/_index.md index b8a55ce9df6c2f7c94a0e1a5914972016f8b846d..dd15f9955930b47079fd56bccd72a26b02921d02 100644 --- a/content/pt-br/docs/guides/_index.md +++ b/content/pt-br/docs/guides/_index.md @@ -1,6 +1,4 @@ --- title: Guias -description: Guias de como fazer coisas. +description: Guias de como fazer coisas --- - - diff --git a/content/pt-br/docs/guides/adicao-disco-ceph.md b/content/pt-br/docs/guides/adicao-disco-ceph.md deleted file mode 100644 index 77f3742f9b2bc3ba32b62e03ab856d9442e5a6c1..0000000000000000000000000000000000000000 --- a/content/pt-br/docs/guides/adicao-disco-ceph.md +++ /dev/null @@ -1,87 +0,0 @@ ---- -title: Adição de disco no Ceph ---- - -Para adicionar um disco, garanta que ele não tenha nenhuma partição primeiro: - -```console -$ sgdisk -Z /dev/sda -``` - -Então, adicione: - -```console -$ ceph-volume lvm create --data /dev/sda --block.db /dev/nvme0n1 --block.db-slots 16 -``` - -## Comandos úteis - -Para mostrar todos os OSDs use um dos seguintes comandos: - -```console -$ ceph osd df # lista -$ ceph osd tree # árvore -``` - -O comando `ceph osd df` é útil para ver o balanceamento dos discos. - -Para mostrar o estado do Ceph faça: - -```console -$ ceph status -``` - -Para saber detalhadamente o que tá acontecendo use: - -```console -$ ceph health -``` - -## Pegar todos os seriais dos discos usados no Ceph - -```bash -for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do - echo -n $i ; - smartctl -i $i | grep -i "serial" | cut -d':' -f2; -done; -``` - -Exemplo: - -```console -barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do \ - echo -n $i ; \ - smartctl -i $i | grep -i "serial" | cut -d':' -f2; \ -done; - -/dev/sdt ZA15V0J9 -/dev/sdu ZA161LHJ -/dev/sdw ZA16X2KA -/dev/sdx ZA161L54 -/dev/sdv ZA15ZGFP -barril2:~# -``` - -## Pegar todos os UIDs dos discos usados no Ceph - -```bash -for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do - echo -n $i ; - ls -lah /dev/disk/by-id/ | grep $i | grep wwn; -done; -``` - -Exemplo: - -```console -barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do \ - echo -n $i; \ - ls -lah /dev/disk/by-id/ | grep $i | grep wwn; \ -done; - -sdtlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f9337 -> ../../sdt -sdulrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938ec5fe -> ../../sdu -sdwlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500a265cafc -> ../../sdw -sdxlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f6677 -> ../../sdx -sdvlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f0559 -> ../../sdv -``` diff --git a/content/pt-br/docs/guides/ceph/_index.md b/content/pt-br/docs/guides/ceph/_index.md new file mode 100644 index 0000000000000000000000000000000000000000..0dd539163b963db1362bc1a17f76f87f85b009fc --- /dev/null +++ b/content/pt-br/docs/guides/ceph/_index.md @@ -0,0 +1,4 @@ +--- +title: Ceph +description: Guias relacionados ao Ceph +--- diff --git a/content/pt-br/docs/guides/usando-ceph.md b/content/pt-br/docs/guides/ceph/como-adicionar-discos.md similarity index 66% rename from content/pt-br/docs/guides/usando-ceph.md rename to content/pt-br/docs/guides/ceph/como-adicionar-discos.md index 13621b01f93c5c547bfb0c69fafc21ca52a636ed..948bd8d6fb4977d8ba801a227d465815c5660888 100644 --- a/content/pt-br/docs/guides/usando-ceph.md +++ b/content/pt-br/docs/guides/ceph/como-adicionar-discos.md @@ -1,6 +1,6 @@ --- -title: Como usar o Ceph -description: Como fazer tarefas cotidianas no Ceph +title: Como adicionar discos no Ceph +tags: [ceph] --- ## Como trocar disco @@ -554,3 +554,249 @@ root@urquell:~/ceph# Por fim, agora que identificou o disco que pertence o bloco, basta ir no Proxmox e achar em qual máquina virtual está esse disco. No exemplo, é a máquina virtual de id 170 disco 2, o `/home` da bbbprod. + +## Como adicionar discos + +Para adicionar um disco, garanta que ele não tenha nenhuma partição primeiro: + +```console +$ sgdisk -Z /dev/sda +``` + +Então, adicione: + +```console +$ ceph-volume lvm create --data /dev/sda --block.db /dev/nvme0n1 --block.db-slots 16 +``` + +### Comandos úteis + +Para mostrar todos os OSDs use um dos seguintes comandos: + +```console +$ ceph osd df # lista +$ ceph osd tree # árvore +``` + +O comando `ceph osd df` é útil para ver o balanceamento dos discos. + +Para mostrar o estado do Ceph faça: + +```console +$ ceph status +``` + +Para saber detalhadamente o que tá acontecendo use: + +```console +$ ceph health +``` + +### Pegar todos os seriais dos discos usados no Ceph + +```bash +for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do + echo -n $i ; + smartctl -i $i | grep -i "serial" | cut -d':' -f2; +done; +``` + +Exemplo: + +```console +barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}'); do \ + echo -n $i ; \ + smartctl -i $i | grep -i "serial" | cut -d':' -f2; \ +done; + +/dev/sdt ZA15V0J9 +/dev/sdu ZA161LHJ +/dev/sdw ZA16X2KA +/dev/sdx ZA161L54 +/dev/sdv ZA15ZGFP +barril2:~# +``` + +### Pegar todos os UIDs dos discos usados no Ceph + +```bash +for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do + echo -n $i ; + ls -lah /dev/disk/by-id/ | grep $i | grep wwn; +done; +``` + +Exemplo: + +```console +barril2:~# for i in $(ceph-volume lvm list | grep "/dev/sd" | awk -F" " '{print $2}' | cut -d'/' -f3); do \ + echo -n $i; \ + ls -lah /dev/disk/by-id/ | grep $i | grep wwn; \ +done; + +sdtlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f9337 -> ../../sdt +sdulrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938ec5fe -> ../../sdu +sdwlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500a265cafc -> ../../sdw +sdxlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f6677 -> ../../sdx +sdvlrwxrwxrwx 1 root root 9 Jul 31 13:56 wwn-0x5000c500938f0559 -> ../../sdv +``` + +## Como gerenciar discos falhos no Ceph + +Se você está aqui, espero que seja porque você tenha recebido alguns alertas do +Zabbix emitidos pelo Ceph Monitor dizendo que alguns OSDs não estão funcionando. +O Ceph tenta ressucitar o disco quando isso acontece, mas se ele permanece +falhando, o que se deve fazer é testar e remover o disco de operação. + +1. Primeiro precisamos identificar qual OSD está falhando: + + ```console + barril4:~/scripts# ceph osd status + ID HOST USED AVAIL WR OPS WR DATA RD OPS RD DATA STATE + 0 barril4 4732G 2836G 11 84.3k 1 0 exists,up + 1 barril4 0 0 2 79.6k 0 0 autoout,exists + 2 barril4 4826G 2741G 5 30.0k 3 228k exists,up + 3 barril4 4951G 2616G 6 65.3k 0 0 exists,up + ``` + + Observe que o OSD 1 não está `up`. + +1. Agora identificamos qual o disco falho: + + ```console + barril4:~/scripts# ceph-volume lvm list | grep -A 19 '= osd.1 =' + ====== osd.1 ======= + + [db] /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc + + block device /dev/ceph-e42d4f35-b3d6-4aed-b288-c549d8b70941/osd-block-58e98ed2-a658-44ee-9992-d15f054a7694 + block uuid JojsTQ-cY4R-fG2y-AAjv-IfDI-3YJT-34XkYA + cephx lockbox secret + cluster fsid c30ecc8d-440e-4608-b3fe-5020337ae11d + cluster name ceph + crush device class None + db device /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc + db uuid s0kw8e-iW38-boMx-9xTV-sXfT-C8Ju-lXkaiH + encrypted 0 + osd fsid 58e98ed2-a658-44ee-9992-d15f054a7694 + osd id 1 + osdspec affinity + type db + vdo 0 + devices /dev/sdh + + ``` + + Note então que o disco falho é o `/dev/sdh` neste caso. + +1. Podemos zerar o disco e verificar se ocorre alguma falha: + + ```console + barril4:~# dd if=/dev/zero of=/dev/sdh bs=4M oflag=sync status=progress &; \ + dmesg -TW + ``` + + Isso vai demorar bastante, então rode em uma sessão do tmux. Se o `dd` terminar + a sua execução e o `dmesg` não acusar nenhum erro, o disco ainda é *usável*, + porém definitivamente suspeito. Zerar o disco arrumou os setores corrompidos + do disco e o gerenciador do disco conseguiu identificar e realocar os setores + defeituosos. De toda forma o disco merece uma inspeção com `smartctl`: + + ```console + barril4:~# smartctl -a /dev/sdh + smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-0.deb11.5-amd64] (local build) + Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org + + === START OF INFORMATION SECTION === + Vendor: SEAGATE + Product: ST8000NM0075 + Revision: E002 + Compliance: SPC-4 + User Capacity: 8,001,563,222,016 bytes [8.00 TB] + Logical block size: 512 bytes + Physical block size: 4096 bytes + LU is fully provisioned + Rotation Rate: 7200 rpm + Form Factor: 3.5 inches + Logical Unit id: 0x5000c50093ff6bc7 + Serial number: ZA17WQSP0000R742QPZP + Device type: disk + Transport protocol: SAS (SPL-4) + Local Time is: Sun Mar 3 18:04:07 2024 -03 + SMART support is: Available - device has SMART capability. + SMART support is: Enabled + Temperature Warning: Enabled + + === START OF READ SMART DATA SECTION === + SMART Health Status: DATA CHANNEL IMPENDING FAILURE DATA ERROR RATE TOO HIGH [asc=5d, ascq=32] + + Grown defects during certification <not available> + Total blocks reassigned during format <not available> + Total new blocks reassigned = 49200 + Power on minutes since format <not available> + Current Drive Temperature: 53 C + Drive Trip Temperature: 60 C + + Accumulated power on time, hours:minutes 52214:46 + Manufactured in week 19 of year 2017 + Specified cycle count over device lifetime: 10000 + Accumulated start-stop cycles: 80 + Specified load-unload count over device lifetime: 300000 + Accumulated load-unload cycles: 4216 + + Elements in grown defect list: 49236 + + Vendor (Seagate Cache) information + Blocks sent to initiator = 83987848 + Blocks received from initiator = 354284152 + Blocks read from cache and sent to initiator = 2331500192 + Number of read and write commands whose size <= segment size = 577322949 + Number of read and write commands whose size > segment size = 1980651 + + Vendor (Seagate/Hitachi) factory information + number of hours powered up = 52214.77 + number of minutes until next internal SMART test = 25 + + Error counter log: + Errors Corrected by Total Correction Gigabytes Total + ECC rereads/ errors algorithm processed uncorrected + fast | delayed rewrites corrected invocations [10^9 bytes] errors + read: 2826058232 56169 0 2826114401 56169 450842.769 0 + write: 0 0 0 0 0 91089.432 0 + + Non-medium error count: 6026 + + + [GLTSD (Global Logging Target Save Disable) set. Enable Save with '-S on'] + No Self-tests have been logged + ``` + + O que é importante neste diagnóstico é: + + `Transport protocol:` + : Neste caso `SAS (SPL-4)` que indica se é SATA ou SAS. + + `Accumulated power on time, hours:minutes` + : Tempo de operação do disco. Ao converter para anos, vemos que esse disco + está se aproximando da marca dos 6 anos. + + `Manufactured in week {} of year {}` + : Quando o disco foi fabricado, o que indica de qual lote este disco é, + não sendo, por exemplo, da leva dos últimos 4 anos na escrita deste guia (2024). + + `Elements in grown defect list:` + : Quantidade de setores ruins no disco. Se essa quantidade aumentar + gradualmente, esse disco precisa ser trocado. + + `SMART Health Status:` + : O estado de erro que o SMART identificou. Neste caso, temos um problema + de comunicação, onde somas de verificação estão dando errado, indicando + uma falha iminente. + +1. Para retirar o disco, é altamente recomendado utilizar o `ledctl` para piscar + um LED vermelho no disco correspondente na controladora: + + ```console + $ ledctl locate /dev/sdh + $ ledctl locate_off /dev/sdh + ``` diff --git a/content/pt-br/docs/guides/criando-ceph-object-gateway.md b/content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md similarity index 97% rename from content/pt-br/docs/guides/criando-ceph-object-gateway.md rename to content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md index 761eb9abc4cc84b221ddc95d4627416d78e4017a..93bd96a73807847000163f7cda8317d6ceeb2d90 100644 --- a/content/pt-br/docs/guides/criando-ceph-object-gateway.md +++ b/content/pt-br/docs/guides/ceph/como-criar-o-ceph-object-gateway.md @@ -1,5 +1,6 @@ --- -title: Criando Ceph Object Gateway +title: Como criar o Ceph Object Gateway +tags: [ceph] --- ## Conceitos diff --git a/content/pt-br/docs/guides/ceph/como-trocar-discos.md b/content/pt-br/docs/guides/ceph/como-trocar-discos.md new file mode 100644 index 0000000000000000000000000000000000000000..0d7ae158e6e3fe4cd217212ea79cce0e51172492 --- /dev/null +++ b/content/pt-br/docs/guides/ceph/como-trocar-discos.md @@ -0,0 +1,100 @@ +--- +title: Como trocar discos no Ceph +tags: [ceph] +--- + +1. Identifique o disco falhado: + + ```console + $ ceph health + $ ceph osd tree | grep -i down + ``` + +2. Pare o daemon do disco: + + ```console + $ systemctl stop ceph-osd@OSD_ID + ``` + +3. Tire o OSD do Ceph: + + ```console + $ ceph osd out OSD_ID + $ ceph osd crush remove osd.OSD_ID + ``` + +4. Remova o disco do Ceph: + + ```console + $ ceph osd rm osd.OSD_ID + ``` + +5. Desmonte o disco: + + ```console + $ umount /var/lib/ceph/osd/$CLUSTER_NAME-$OSD_ID + ``` + +6. Remova do LVM, primeiro achando o disco e a partição do SSD correspondente a ele. + + Por exemplo, para remover do LVM OSD.0, primeiro ache o OSD.0 no LVM: + + ```console + barril4:~# ceph-volume lvm list + + + ====== osd.0 ======= + + [db] /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185 + + block device /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04 + block uuid FDPpBc-cvOG-JZYq-5D6u-2RlJ-56gz-1LUncO + cephx lockbox secret + cluster fsid c30ecc8d-440e-4608-b3fe-5020337ae11d + cluster name ceph + crush device class None + db device /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185 + db uuid rN0LG9-86Dl-KgzQ-DUOd-hF9u-A3Kl-nLdwV2 + encrypted 0 + osd fsid 5b0842c7-ee56-4d05-8bb2-00efdb475b04 + osd id 0 + osdspec affinity + type db + vdo 0 + devices /dev/nvme0n1 + + [block] /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04 + + block device /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04 + block uuid FDPpBc-cvOG-JZYq-5D6u-2RlJ-56gz-1LUncO + cephx lockbox secret + cluster fsid c30ecc8d-440e-4608-b3fe-5020337ae11d + cluster name ceph + crush device class None + db device /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185 + db uuid rN0LG9-86Dl-KgzQ-DUOd-hF9u-A3Kl-nLdwV2 + encrypted 0 + osd fsid 5b0842c7-ee56-4d05-8bb2-00efdb475b04 + osd id 0 + osdspec affinity + type block + vdo 0 + devices /dev/sdc + ``` + + Agora remova o `block` e o `db`. + + 1. No caso do DB precisa remover tando do `ceph-volume`, quanto excluir + a partição do SSD. O comando `ceph-volume lvm zap` remove do Ceph e + o `lvremove` remove a partição do SSD: + + ```console + $ ceph-volume lvm zap /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185 + $ lvremove /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-ea40e801-188f-4d53-afdb-6082eb5e8185 + ``` + + 2. Para remover o bloco execute: + + ```console + $ ceph-volume lvm zap /dev/ceph-a75e7b96-ddb4-4838-8e98-777c1492dab5/osd-block-5b0842c7-ee56-4d05-8bb2-00efdb475b04 + ``` diff --git a/content/pt-br/docs/guides/usando-s3-ceph.md b/content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md similarity index 98% rename from content/pt-br/docs/guides/usando-s3-ceph.md rename to content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md index 6588d5fc5153d3f61934a7c0ab2bceadebad6750..e0a5e8846d7bd770f506f2730bb20e04ba00b532 100644 --- a/content/pt-br/docs/guides/usando-s3-ceph.md +++ b/content/pt-br/docs/guides/ceph/como-usar-o-s3-com-o-ceph.md @@ -1,6 +1,6 @@ --- -title: Usando a API AWS S3 do Ceph -description: Como configurar e usar a API do S3 junto com o Ceph +title: Como configurar e usar a API do S3 junto com o Ceph +tags: [ceph, s3] --- A instância do Ceph do C3SL possui as seguintes valores: diff --git a/content/pt-br/docs/guides/acessando-sub-redes-internas.md b/content/pt-br/docs/guides/como-acessar-sub-redes-internas.md similarity index 97% rename from content/pt-br/docs/guides/acessando-sub-redes-internas.md rename to content/pt-br/docs/guides/como-acessar-sub-redes-internas.md index ab97e8712b1e5c2661112e6a780c131c3cc088b7..e39a064f1ccecdee2aea3eb2b8db209b6cb5d1bd 100644 --- a/content/pt-br/docs/guides/acessando-sub-redes-internas.md +++ b/content/pt-br/docs/guides/como-acessar-sub-redes-internas.md @@ -1,5 +1,5 @@ --- -title: Acessando sub-redes internas +title: Como acessar sub-redes internas --- É possÃvel acessar uma sub-rede interna (como a sub-rede dos diff --git a/content/pt-br/docs/guides/configurando-pam.md b/content/pt-br/docs/guides/como-configur-o-pam.md similarity index 99% rename from content/pt-br/docs/guides/configurando-pam.md rename to content/pt-br/docs/guides/como-configur-o-pam.md index 1517efa154706f1d4addad252f9c9d17e7ea4471..570a0284e1a1f09fbb25e659ceb1d31165adac0f 100644 --- a/content/pt-br/docs/guides/configurando-pam.md +++ b/content/pt-br/docs/guides/como-configur-o-pam.md @@ -1,5 +1,6 @@ --- -title: Configurando PAM nos terminais do DINF +title: Como configurar o PAM nos terminais do DINF +tags: [pam] --- Foi adotado o [guia de referência da RJ Systems](http://www.rjsystems.nl/en/2100-d6-kerberos-openldap-client.php) com algumas diff --git a/content/pt-br/docs/guides/fail2ban-wordpress.md b/content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md similarity index 98% rename from content/pt-br/docs/guides/fail2ban-wordpress.md rename to content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md index e246c33d433d1330466b9799c0ee3c0a7751a2ae..ae77057855123e23668c9385281547b21b7df4c9 100644 --- a/content/pt-br/docs/guides/fail2ban-wordpress.md +++ b/content/pt-br/docs/guides/como-configurar-fail2ban-wordpress.md @@ -1,5 +1,5 @@ --- -title: Configuração do Fail2Ban para WordPress +title: Como configurar Fail2Ban para WordPress --- Configuração do fail2ban nas máquinas c3slprod e webinfpro com o propósito de diff --git a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md b/content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md similarity index 98% rename from content/pt-br/docs/guides/configuracao-acesso-ipmi.md rename to content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md index 5c32a6e4051827a542777bd21c06dcbb275a6f69..875f81b7ff065eba9f0ddbefba712bcf4b5eea87 100644 --- a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md +++ b/content/pt-br/docs/guides/como-configurar-o-acesso-ipmi.md @@ -1,5 +1,6 @@ --- -title: Configuração do acesso IPMI +title: Como configurar acesso ao IPMI +tags: [ipmi] --- O padrão adotado para configuração dos parâmetros do IPMI são: @@ -88,7 +89,7 @@ barril1:~# ipmitool lan set 2 defgw ipaddr 0.0.0.0 ``` O IP dentro da rede IPMI deve constar no arquivo `/root/ipmi/status_ipmi.md` -da [](/pages/machines/base/duvel). +da [](/docs/machines/base/duvel). {{< alert title="TODO" >}} Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro que diff --git a/content/pt-br/docs/guides/criando-aliases-dns.md b/content/pt-br/docs/guides/como-criar-aliases-dns.md similarity index 98% rename from content/pt-br/docs/guides/criando-aliases-dns.md rename to content/pt-br/docs/guides/como-criar-aliases-dns.md index 8f780e4a23aa6c6830db5bd755d6b4a0876e44c3..5609d6a1ccd2945471cdfe8309464dc2f166b528 100644 --- a/content/pt-br/docs/guides/criando-aliases-dns.md +++ b/content/pt-br/docs/guides/como-criar-aliases-dns.md @@ -1,5 +1,6 @@ --- -title: Criando aliases no DNS +title: Como criar aliases no DNS +tags: [dns] --- Às vezes é necessário criar um nome externo diferente de um nome interno utilizado diff --git a/content/pt-br/docs/guides/quiosque-quadro-avisos.md b/content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md similarity index 97% rename from content/pt-br/docs/guides/quiosque-quadro-avisos.md rename to content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md index 1bd070a2e7797b686aa7be29dc8b0c393045322f..3a1aabc34c01eceab9650357567b7d2ea4bc39f8 100644 --- a/content/pt-br/docs/guides/quiosque-quadro-avisos.md +++ b/content/pt-br/docs/guides/como-criar-quiosque-quadro-avisos.md @@ -1,5 +1,5 @@ --- -title: Criando um quiosque do quadro de avisos +title: Como criar um quiosque do quadro de avisos --- Um quiosque do quadro de avisos é uma máquina simples que abre uma diff --git a/content/pt-br/docs/guides/comutacao-banco-dados.md b/content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md similarity index 97% rename from content/pt-br/docs/guides/comutacao-banco-dados.md rename to content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md index 9b287c0f5df4d4813a52d111fcecbc428b163e8c..ffda942340fb7a122efabd84d5c36d384fcefbd3 100644 --- a/content/pt-br/docs/guides/comutacao-banco-dados.md +++ b/content/pt-br/docs/guides/como-fazer-a-comutacao-entre-banco-de-dados.md @@ -1,5 +1,5 @@ --- -title: Comutação entre bancos de dados +title: Como fazer a comutação entre bancos de dados --- Atualmente, o C3SL conta com duas máquinas de banco de dados: @@ -31,7 +31,10 @@ Atualmente, o C3SL conta com duas máquinas de banco de dados: - Indexes e tabelas do Moodle armazenada nos discos ::: -Com base na configuração das duas servidoras de banco de dados, é notável a superioridade da servidora C3SLDB2. Portanto, recomenda-se ela ser a servidora principal, enquanto a servidora c3sldb1 fique como secundária em caso de falha na c3sldb2. +Com base na configuração das duas servidoras de banco de dados, é notável a +superioridade da servidora C3SLDB2. Portanto, recomenda-se ela ser a servidora +principal, enquanto a servidora c3sldb1 fique como secundária em caso de falha +na c3sldb2. ## Processo de comutação entre servidoras diff --git a/content/pt-br/docs/guides/debootstrap-torneira.md b/content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md similarity index 97% rename from content/pt-br/docs/guides/debootstrap-torneira.md rename to content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md index 716e76bcb12041e66d75f8ef041df2178bda756a..955b66a16f750f3ecbf37c5fa29181bc445e24fa 100644 --- a/content/pt-br/docs/guides/debootstrap-torneira.md +++ b/content/pt-br/docs/guides/como-fazer-debootstrap-da-torneira.md @@ -1,5 +1,6 @@ --- -title: Debootstrap das Torneiras +title: Como fazer debootstrap das Torneiras +tags: [debootstrap] --- ## Configurando RAID diff --git a/content/pt-br/docs/guides/debootstrap-mvs.md b/content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md similarity index 98% rename from content/pt-br/docs/guides/debootstrap-mvs.md rename to content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md index 2d2934250c78f81e364825a8dd701870052dd62a..a38a86e15c43a7374356afa2d87f6c78617aedae 100644 --- a/content/pt-br/docs/guides/debootstrap-mvs.md +++ b/content/pt-br/docs/guides/como-fazer-debootstrap-mvs.md @@ -1,5 +1,6 @@ --- -title: Debootstrap das Máquinas Virtuais +title: Como fazer debootstrap das Máquinas Virtuais +tags: [debootstrap] --- ## Install debootstrap and qemu diff --git a/content/pt-br/docs/guides/how-to-proxy.md b/content/pt-br/docs/guides/como-fazer-proxy.md similarity index 98% rename from content/pt-br/docs/guides/how-to-proxy.md rename to content/pt-br/docs/guides/como-fazer-proxy.md index 62f5d4264e761ffb1f503d5fdfc77e9ca4c03790..d589b91fa96749e3f3dd0854324cf40bab9ed6a3 100644 --- a/content/pt-br/docs/guides/how-to-proxy.md +++ b/content/pt-br/docs/guides/como-fazer-proxy.md @@ -1,6 +1,5 @@ --- -title: Proxies -description: Como fazer proxy +title: Como fazer proxy --- ## DynamicForward (proxy de tudo) diff --git a/content/pt-br/docs/guides/gerando-imagens-aps.md b/content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md similarity index 98% rename from content/pt-br/docs/guides/gerando-imagens-aps.md rename to content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md index 4f224d71a1a50122842fb7a1513fd187f9ab8f4f..36110df0785de67bb81fecfcbdb6cb96a6496c87 100644 --- a/content/pt-br/docs/guides/gerando-imagens-aps.md +++ b/content/pt-br/docs/guides/como-gerar-uma-imagens-aps.md @@ -1,5 +1,5 @@ --- -title: Gerando imagem dos pontos de acesso sem fio +title: Como gerar uma imagem dos pontos de acesso sem fio --- Os pontos de acesso sem fio gerenciados pelo C3SL são roteadores com diff --git a/content/pt-br/docs/guides/identificando-chave-ssh.md b/content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md similarity index 98% rename from content/pt-br/docs/guides/identificando-chave-ssh.md rename to content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md index 13a72944bd71bd5353b56c742dd0b71d58a69d10..fb3ef0b6d0931fb88b5d5cc0a1d21195365b7cfb 100644 --- a/content/pt-br/docs/guides/identificando-chave-ssh.md +++ b/content/pt-br/docs/guides/como-identificar-usuarios-pela-chave-ssh.md @@ -1,5 +1,5 @@ --- -title: Identificando usuário pela chave SSH +title: Como identificar usuários pela chave SSH --- Primeiro, encontre a impressão digital da chave no `journalctl`: diff --git a/content/pt-br/docs/guides/instalando-c3sldb.md b/content/pt-br/docs/guides/como-instalar-c3sldb.md similarity index 99% rename from content/pt-br/docs/guides/instalando-c3sldb.md rename to content/pt-br/docs/guides/como-instalar-c3sldb.md index 6980a5329297ed94a509f6718c517e246f50f125..8d016fce7bfd2dc5a96154b2662dad9bc3623354 100644 --- a/content/pt-br/docs/guides/instalando-c3sldb.md +++ b/content/pt-br/docs/guides/como-instalar-c3sldb.md @@ -1,5 +1,5 @@ --- -title: Instalando a C3SLDB +title: Como instalar a C3SLDB --- ## Instalação do Postgres diff --git a/content/pt-br/docs/guides/instalando-freeipa.md b/content/pt-br/docs/guides/como-instalar-freeipa.md similarity index 99% rename from content/pt-br/docs/guides/instalando-freeipa.md rename to content/pt-br/docs/guides/como-instalar-freeipa.md index 900027df50330b66c213b4f719c36bc77ff8df25..fb70eaa00fb00018dd58a86d75ede446cf99eefc 100644 --- a/content/pt-br/docs/guides/instalando-freeipa.md +++ b/content/pt-br/docs/guides/como-instalar-freeipa.md @@ -1,5 +1,5 @@ --- -title: Instalando o FreeIPA +title: Como instalar o FreeIPA --- O IPA é uma solução integrada de gerenciamento de informações de segurança diff --git a/content/pt-br/docs/guides/instalando-ldap.md b/content/pt-br/docs/guides/como-instalar-ldap.md similarity index 99% rename from content/pt-br/docs/guides/instalando-ldap.md rename to content/pt-br/docs/guides/como-instalar-ldap.md index 53eddbdb38277f57e24c845d1ed50092f2b043b9..fbdb6de6a656679a4d276802ffb5b0c54b607c10 100644 --- a/content/pt-br/docs/guides/instalando-ldap.md +++ b/content/pt-br/docs/guides/como-instalar-ldap.md @@ -1,5 +1,5 @@ --- -title: Instalando o LDAP +title: Como instalar o LDAP --- ## Introdução diff --git a/content/pt-br/docs/guides/recuperando-falha-raiz.md b/content/pt-br/docs/guides/como-recuperar-falha-raiz.md similarity index 94% rename from content/pt-br/docs/guides/recuperando-falha-raiz.md rename to content/pt-br/docs/guides/como-recuperar-falha-raiz.md index 1536eae9010eb03b09ecb8b8ba76f20c1fb918a0..823a3c9e97c307c5aace1695beef7cde5cad8107 100644 --- a/content/pt-br/docs/guides/recuperando-falha-raiz.md +++ b/content/pt-br/docs/guides/como-recuperar-falha-raiz.md @@ -1,5 +1,5 @@ --- -title: Recuperando discos de raiz falhos +title: Como recuperar discos de raiz falhos --- Geralmente as máquinas implementam pelo menos RAID1 (espelhamento) nos seus @@ -7,11 +7,11 @@ discos de raiz para permitir que mesmo que falhe um disco, o sistema continue funcionando normalmente. Porém, pode acontecer, devido a fatores como os discos serem colocados em tempos semelhantes e serem do mesmo lote, que os dois discos da raiz falhem simultaneamente. Para isso, precisamos recorrer então ao -[backup da duvel](/pages/services/duvel-backup) (já testou seu backup hoje?): +[backup da duvel](/docs/services/duvel-backup) (já testou seu backup hoje?): 1. Pegue um pendrive bootável com SSH (de preferência que já tenha a sua chave SSH) , rede e utilidades já instaladas. É possÃvel encontrar uma imagem Arch Linux -para pendrive na [](/pages/machines/virtuals/abbey) em `/root/ramfs/isos/`. É bom manter +para pendrive na [](/docs/machines/virtuals/abbey) em `/root/ramfs/isos/`. É bom manter no data center uns dois pendrives assim. 1. Vá ao data center e coloque o pendrive na máquina que falhou as duas raizes. 1. Coloque nessa máquina dois SSDs de **mesmo tamanho** onde estavam as duas raÃzes. diff --git a/content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md b/content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md similarity index 86% rename from content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md rename to content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md index 045ecf445e1daa23dde4656185cd5562dfb443f4..00291dc51ae716fdf054c4372ed771d4dc71131e 100644 --- a/content/pt-br/docs/guides/reiniciando-urquell-cuidadosamente.md +++ b/content/pt-br/docs/guides/como-reiniciar-a-urquell-cuidadosamente.md @@ -1,13 +1,13 @@ --- -title: Reiniciando a urquell cuidadosamente +title: Como reiniciar a urquell cuidadosamente --- -Devido a erros de paridade no RAID, a [](/pages/machines/base/urquell) ao ser +Devido a erros de paridade no RAID, a [](/docs/machines/base/urquell) ao ser reiniciada de forma abrupta pode voltar em modo de emergência. Uma mitigação para que se evite que os erros acumulem e que a máquina tenha mais chance de voltar sem precisar iniciar em modo de emergência é reiniciar a urquell serviço a serviço como segue. -Os passos podem ser executados via [](/pages/concepts/ipmi) ou fisicamente: +Os passos podem ser executados via [](/docs/concepts/ipmi) ou fisicamente: 1. Primeiro entre no modo de usuário único: diff --git a/content/pt-br/docs/guides/usando-ceph-fs.md b/content/pt-br/docs/guides/como-usar-o-ceph-fs.md similarity index 100% rename from content/pt-br/docs/guides/usando-ceph-fs.md rename to content/pt-br/docs/guides/como-usar-o-ceph-fs.md diff --git a/content/pt-br/docs/guides/como-usar-o-gopass.md b/content/pt-br/docs/guides/como-usar-o-gopass.md new file mode 100644 index 0000000000000000000000000000000000000000..02f77d784c7689eca5b17ab0efa61ddb34b040cc --- /dev/null +++ b/content/pt-br/docs/guides/como-usar-o-gopass.md @@ -0,0 +1,17 @@ +--- +title: Como usar o gopass +--- + +O Root possui um repositório do pass no gitlab: +- <https://gitlab.c3sl.ufpr.br/c3root/pass> + +Para ter acesso a ele, você precisa que a sua chave GPG esteja na lista de +"recipientes" do gopass. + +## Como adicionar chaves + +Importe a chave pública. + +```sh +gopass recipients add +``` diff --git a/content/pt-br/docs/guides/kerberos.md b/content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md similarity index 98% rename from content/pt-br/docs/guides/kerberos.md rename to content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md index f4313903faa721584a5fd4bae75a25a7a630e0f0..24dc07be81fa0846f9089265ea72bd169b3df3a0 100644 --- a/content/pt-br/docs/guides/kerberos.md +++ b/content/pt-br/docs/guides/como-usar-o-kerberos-distribuido.md @@ -1,11 +1,12 @@ --- -title: Kerberos DistribuÃdo +title: Como usar o Kerberos DistribuÃdo --- ## Introdução -O objetivo deste guia é simular um ambiente de autenticação através Kerberos com LDAP de backend. -Este guia é baseado na documentação oficial do MIT, wiki do ArchLinux e um guia do Ubuntu. As referências estão no final do documento. +O objetivo deste guia é simular um ambiente de autenticação através Kerberos +com LDAP de backend. Este guia é baseado na documentação oficial do MIT, wiki +do ArchLinux e um guia do Ubuntu. As referências estão no final do documento. ## Arquitetura diff --git a/content/pt-br/docs/guides/usando-taskwarrior.md b/content/pt-br/docs/guides/como-usar-o-taskwarrior.md similarity index 98% rename from content/pt-br/docs/guides/usando-taskwarrior.md rename to content/pt-br/docs/guides/como-usar-o-taskwarrior.md index 4ca75b6aed81efbd6477d6306aa60117bee31e9e..6fc6f937517064a884fa8c5809e2274f6f23ecc1 100644 --- a/content/pt-br/docs/guides/usando-taskwarrior.md +++ b/content/pt-br/docs/guides/como-usar-o-taskwarrior.md @@ -1,6 +1,5 @@ --- -title: Como usar o Taskwarrior -description: Como usar o Taskwarrior para gerenciar as suas tarefas +title: Como usar o Taskwarrior para gerenciar as suas tarefas --- O Taskwarrior é um gerenciador de tarefas, estilo TODO list. diff --git a/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md b/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md deleted file mode 100644 index ce2b46f500956986e516defcb54a6e787d56b745..0000000000000000000000000000000000000000 --- a/content/pt-br/docs/guides/gerenciando-falha-disco-ceph.md +++ /dev/null @@ -1,161 +0,0 @@ ---- -title: Gerenciando disco falho no Ceph ---- - -Se você está aqui, espero que seja porque você tenha recebido alguns alertas do -Zabbix emitidos pelo Ceph Monitor dizendo que alguns OSDs não estão funcionando. -O Ceph tenta ressucitar o disco quando isso acontece, mas se ele permanece -falhando, o que se deve fazer é testar e remover o disco de operação. - -1. Primeiro precisamos identificar qual OSD está falhando: - - ```console - barril4:~/scripts# ceph osd status - ID HOST USED AVAIL WR OPS WR DATA RD OPS RD DATA STATE - 0 barril4 4732G 2836G 11 84.3k 1 0 exists,up - 1 barril4 0 0 2 79.6k 0 0 autoout,exists - 2 barril4 4826G 2741G 5 30.0k 3 228k exists,up - 3 barril4 4951G 2616G 6 65.3k 0 0 exists,up - ``` - - Observe que o OSD 1 não está `up`. - -1. Agora identificamos qual o disco falho: - - ```console - barril4:~/scripts# ceph-volume lvm list | grep -A 19 '= osd.1 =' - ====== osd.1 ======= - - [db] /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc - - block device /dev/ceph-e42d4f35-b3d6-4aed-b288-c549d8b70941/osd-block-58e98ed2-a658-44ee-9992-d15f054a7694 - block uuid JojsTQ-cY4R-fG2y-AAjv-IfDI-3YJT-34XkYA - cephx lockbox secret - cluster fsid c30ecc8d-440e-4608-b3fe-5020337ae11d - cluster name ceph - crush device class None - db device /dev/ceph-8e43d77e-ebc3-4c7e-9da8-475a37da59ae/osd-db-2c87d89f-23f3-4c76-b61c-f868c35486bc - db uuid s0kw8e-iW38-boMx-9xTV-sXfT-C8Ju-lXkaiH - encrypted 0 - osd fsid 58e98ed2-a658-44ee-9992-d15f054a7694 - osd id 1 - osdspec affinity - type db - vdo 0 - devices /dev/sdh - - ``` - - Note então que o disco falho é o `/dev/sdh` neste caso. - -1. Podemos zerar o disco e verificar se ocorre alguma falha: - - ```console - barril4:~# dd if=/dev/zero of=/dev/sdh bs=4M oflag=sync status=progress &; \ - dmesg -TW - ``` - - Isso vai demorar bastante, então rode em uma sessão do tmux. Se o `dd` terminar - a sua execução e o `dmesg` não acusar nenhum erro, o disco ainda é *usável*, - porém definitivamente suspeito. Zerar o disco arrumou os setores corrompidos - do disco e o gerenciador do disco conseguiu identificar e realocar os setores - defeituosos. De toda forma o disco merece uma inspeção com `smartctl`: - - ```console - barril4:~# smartctl -a /dev/sdh - smartctl 7.3 2022-02-28 r5338 [x86_64-linux-6.1.0-0.deb11.5-amd64] (local build) - Copyright (C) 2002-22, Bruce Allen, Christian Franke, www.smartmontools.org - - === START OF INFORMATION SECTION === - Vendor: SEAGATE - Product: ST8000NM0075 - Revision: E002 - Compliance: SPC-4 - User Capacity: 8,001,563,222,016 bytes [8.00 TB] - Logical block size: 512 bytes - Physical block size: 4096 bytes - LU is fully provisioned - Rotation Rate: 7200 rpm - Form Factor: 3.5 inches - Logical Unit id: 0x5000c50093ff6bc7 - Serial number: ZA17WQSP0000R742QPZP - Device type: disk - Transport protocol: SAS (SPL-4) - Local Time is: Sun Mar 3 18:04:07 2024 -03 - SMART support is: Available - device has SMART capability. - SMART support is: Enabled - Temperature Warning: Enabled - - === START OF READ SMART DATA SECTION === - SMART Health Status: DATA CHANNEL IMPENDING FAILURE DATA ERROR RATE TOO HIGH [asc=5d, ascq=32] - - Grown defects during certification <not available> - Total blocks reassigned during format <not available> - Total new blocks reassigned = 49200 - Power on minutes since format <not available> - Current Drive Temperature: 53 C - Drive Trip Temperature: 60 C - - Accumulated power on time, hours:minutes 52214:46 - Manufactured in week 19 of year 2017 - Specified cycle count over device lifetime: 10000 - Accumulated start-stop cycles: 80 - Specified load-unload count over device lifetime: 300000 - Accumulated load-unload cycles: 4216 - - Elements in grown defect list: 49236 - - Vendor (Seagate Cache) information - Blocks sent to initiator = 83987848 - Blocks received from initiator = 354284152 - Blocks read from cache and sent to initiator = 2331500192 - Number of read and write commands whose size <= segment size = 577322949 - Number of read and write commands whose size > segment size = 1980651 - - Vendor (Seagate/Hitachi) factory information - number of hours powered up = 52214.77 - number of minutes until next internal SMART test = 25 - - Error counter log: - Errors Corrected by Total Correction Gigabytes Total - ECC rereads/ errors algorithm processed uncorrected - fast | delayed rewrites corrected invocations [10^9 bytes] errors - read: 2826058232 56169 0 2826114401 56169 450842.769 0 - write: 0 0 0 0 0 91089.432 0 - - Non-medium error count: 6026 - - - [GLTSD (Global Logging Target Save Disable) set. Enable Save with '-S on'] - No Self-tests have been logged - ``` - - O que é importante neste diagnóstico é: - - `Transport protocol:` - : Neste caso `SAS (SPL-4)` que indica se é SATA ou SAS. - - `Accumulated power on time, hours:minutes` - : Tempo de operação do disco. Ao converter para anos, vemos que esse disco - está se aproximando da marca dos 6 anos. - - `Manufactured in week {} of year {}` - : Quando o disco foi fabricado, o que indica de qual lote este disco é, - não sendo, por exemplo, da leva dos últimos 4 anos na escrita deste guia (2024). - - `Elements in grown defect list:` - : Quantidade de setores ruins no disco. Se essa quantidade aumentar - gradualmente, esse disco precisa ser trocado. - - `SMART Health Status:` - : O estado de erro que o SMART identificou. Neste caso, temos um problema - de comunicação, onde somas de verificação estão dando errado, indicando - uma falha iminente. - -1. Para retirar o disco, é altamente recomendado utilizar o `ledctl` para piscar - um LED vermelho no disco correspondente na controladora: - - ```console - $ ledctl locate /dev/sdh - $ ledctl locate_off /dev/sdh - ``` diff --git a/content/pt-br/docs/guides/imagemTerminais/_index.md b/content/pt-br/docs/guides/imagemTerminais/_index.md new file mode 100644 index 0000000000000000000000000000000000000000..fa73d3fa450dcaa948c540e9e774efc74ba1ec40 --- /dev/null +++ b/content/pt-br/docs/guides/imagemTerminais/_index.md @@ -0,0 +1,4 @@ +--- +title: Imagem dos terminais +description: Guias relacionados à imagem dos labs +--- diff --git a/content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md b/content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md similarity index 89% rename from content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md rename to content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md index 7e047724bb0b5d06991f0ffdc299d104d6ab9d60..3c6382774c948dc05450a7ce6ddadcc26efc554d 100644 --- a/content/pt-br/docs/guides/como-atualizar-a-imagem-dos-terminais.md +++ b/content/pt-br/docs/guides/imagemTerminais/como-atualizar-imagens.md @@ -1,15 +1,15 @@ --- -title: Como atualizar a imagem dos terminais +title: Como atualizar uma imagem dos terminais --- -Em primeiro lugar, entre na estrella com o usuário `c3slops`: +Entre na estrella com o usuário `c3slops`: ```sh ssh c3slops@estrella ``` As imagens de sistema estão localizadas no diretório `/exports/image`. Para -copiar a imagem atual, use o comando cp com a opção -a, que preserva as +copiar a imagem atual, use o comando cp com a opção -a para preservar as propriedades do diretório e seus arquivos. O nome da imagem deve seguir o formato nome-ano-mes-data-hora-minuto, por @@ -48,7 +48,7 @@ menuentry "Terminal" { } ``` -## Como testar? +## Como testar Reboote a máquina `cloneimgteste` para ver se as modificações foram aplicadas. Caso tudo esteja certo, reboote todas as outras máquinas com o script diff --git a/content/pt-br/docs/guides/terminais.md b/content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md similarity index 98% rename from content/pt-br/docs/guides/terminais.md rename to content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md index 141369dc665117e16dce57c24b68e471b15be6d4..a07de47e3a201c08b0468a4f02ccf1c4c6d98b7e 100644 --- a/content/pt-br/docs/guides/terminais.md +++ b/content/pt-br/docs/guides/imagemTerminais/como-criar-imagens.md @@ -1,5 +1,5 @@ --- -title: Como criar uma imagem de terminais +title: Como criar uma imagem dos terminais --- ## Configurar PAM, Kerberos e LDAP diff --git a/content/pt-br/docs/guides/kubernetes/_index.md b/content/pt-br/docs/guides/kubernetes/_index.md new file mode 100644 index 0000000000000000000000000000000000000000..b3b164bc7ffb2b27ad701f35a42034a9416731d4 --- /dev/null +++ b/content/pt-br/docs/guides/kubernetes/_index.md @@ -0,0 +1,4 @@ +--- +title: Kubernetes +description: Guias relacionados ao Kubernetes +--- diff --git a/content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md b/content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md similarity index 96% rename from content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md rename to content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md index 31cbed043f773fbd34c4c5ba402086c9558900dc..42c490ec00b0bc814bddf19778aaf439b83a937d 100644 --- a/content/pt-br/docs/guides/como-fazer-o-deploy-de-um-novo-cluster-k8s.md +++ b/content/pt-br/docs/guides/kubernetes/como-fazer-o-deploy-de-um-cluster-kubernetes-com-talos-linux.md @@ -1,5 +1,6 @@ --- -title: Como fazer o deploy de um novo cluster k8s +title: Como fazer o deploy de um cluster Kubernetes com TalosLinux +tags: [kubernetes, talos-linux] --- ## Faça o deploy das VMs com OpenTofu @@ -131,4 +132,3 @@ flux bootstrap gitlab \ cilium uninstall flux reconcile source git flux-system ``` - diff --git a/content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md b/content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md similarity index 99% rename from content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md rename to content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md index 220331f2b14c333d0b1f0503b5b3fc338a7fbd29..b2e65cad0b19dfe6606777e6e10d736586f30f6d 100644 --- a/content/pt-br/docs/guides/como-gerenciar-usuarios-no-kubernetes.md +++ b/content/pt-br/docs/guides/kubernetes/como-gerenciar-usuarios-no-kubernetes.md @@ -1,5 +1,6 @@ --- title: Como gerenciar usuários no Kubernetes +tags: [kubernetes] --- Nesse tutorial vai ser criado um certificado para o "usuário" devademir com as @@ -172,3 +173,4 @@ Use `k get clusterrole` para ver todas as *ClusterRoles*. - [Certificates e CSR](https://kubernetes.io/docs/reference/access-authn-authz/certificate-signing-requests/#kubernetes-signers) - [Kubernetes TLS Certificates](https://kubernetes.io/docs/tasks/tls/managing-tls-in-a-cluster/#create-a-certificate-signing-request) + diff --git a/content/pt-br/docs/services/k8s-harbor.md b/content/pt-br/docs/services/k8s-harbor.md new file mode 100644 index 0000000000000000000000000000000000000000..81991654f2bb00f5000c84a4338115686d43ef1b --- /dev/null +++ b/content/pt-br/docs/services/k8s-harbor.md @@ -0,0 +1,9 @@ +--- +title: k8s/Harbor +description: Harbor do C3SL +--- + +- O [Harbor do C3SL](https://harbor.c3sl.ufpr.br) está em cima do + [Kubernetes](/docs/concepts/kubernetes). +- As credenciais do admin do Harbor estão disponÃveis no + [gopass](/docs/concepts/gopass). diff --git a/content/pt-br/docs/services/k8s-rootdocs.md b/content/pt-br/docs/services/k8s-rootdocs.md index a0877804ea208e581bac139c9ce94c4724c50248..fc68ef429b90f26a4fe93066a065e7c8fa587bb7 100644 --- a/content/pt-br/docs/services/k8s-rootdocs.md +++ b/content/pt-br/docs/services/k8s-rootdocs.md @@ -41,5 +41,5 @@ deploy: Essa pipeline faz duas coisas: 1. O build e push do container - usando [kaniko](/concepts/kaniko) - no - [Harbor](/concepts/harbor). + [Harbor](/docs/concepts/harbor). 2. Reinicia o deploy no Kubernetes para atualizar a imagem em uso.