diff --git a/content/pt-br/docs/concepts/initd.md b/content/pt-br/docs/concepts/initd.md index 9da2ba6067c7ef9080a794803dd4697fe13c7a37..68eae7ec2f8f14ead2606baf0e12d9e3c668e504 100644 --- a/content/pt-br/docs/concepts/initd.md +++ b/content/pt-br/docs/concepts/initd.md @@ -9,9 +9,9 @@ caso, provavelmente o sistema está usando um sistema de inicialização como o System V. O System V é um sistema Unix que inicializa o sistema utilizando um programa que executa scripts localizados no diretório `/etc/init.d`. -:::{warning} +{{< alert color="warning" title="Aviso" >}} Esse sistema de inicialização não é mais utilizado pela maioria das distribuições Linux. Isso significa que a disponibilidade de suporte, documentação e configurações de programas novos para este sistema de inicialização é praticamente inexistente. -::: +{{< /alert >}} diff --git a/content/pt-br/docs/concepts/zfs.md b/content/pt-br/docs/concepts/zfs.md index 579f4c531bbc3d6bb73a3f724ab08ff19d6c3c6e..ba3f6b00f8052a5df48d6b70953f54901581ff35 100644 --- a/content/pt-br/docs/concepts/zfs.md +++ b/content/pt-br/docs/concepts/zfs.md @@ -62,7 +62,7 @@ config: errors: No known data errors ``` -{{< alert title="Note" >}} +{{< alert title="Nota" >}} Estar mostrando `(non-allocating)` é aparentemente [um bug que deve se resolver na próxima vez que a máquina reiniciar](https://discourse.practicalzfs.com/t/meaning-of-non-allocating-in-zpool-status/1029). {{< /alert >}} diff --git a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md b/content/pt-br/docs/guides/configuracao-acesso-ipmi.md index d127e0f27393018b8eb5cdddf556588eb001def5..5c32a6e4051827a542777bd21c06dcbb275a6f69 100644 --- a/content/pt-br/docs/guides/configuracao-acesso-ipmi.md +++ b/content/pt-br/docs/guides/configuracao-acesso-ipmi.md @@ -90,10 +90,10 @@ barril1:~# ipmitool lan set 2 defgw ipaddr 0.0.0.0 O IP dentro da rede IPMI deve constar no arquivo `/root/ipmi/status_ipmi.md` da [](/pages/machines/base/duvel). -:::{todo} - Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro - que estiver disponÃvel. -::: +{{< alert title="TODO" >}} +Confirmar se o IP deve ser assinalado sequencialmente, pegando o primeiro que +estiver disponÃvel. +{{< /alert >}} ## Configuração de usuários diff --git a/content/pt-br/docs/guides/configurando-pam.md b/content/pt-br/docs/guides/configurando-pam.md index 68e7c9ad287a1265dc7a45197636f66d34c53c3c..1517efa154706f1d4addad252f9c9d17e7ea4471 100644 --- a/content/pt-br/docs/guides/configurando-pam.md +++ b/content/pt-br/docs/guides/configurando-pam.md @@ -4,7 +4,7 @@ title: Configurando PAM nos terminais do DINF Foi adotado o [guia de referência da RJ Systems](http://www.rjsystems.nl/en/2100-d6-kerberos-openldap-client.php) com algumas modificações na parte da PAM para ficar o mais semelhante possÃvel com a -configuração da [](/pages/virtuals/mumm). +configuração da [](/docs/virtuals/mumm). ## Passo 1: Instalar pacotes do Kerberos, LDAP, PAM e afins diff --git a/content/pt-br/docs/guides/gerando-imagens-aps.md b/content/pt-br/docs/guides/gerando-imagens-aps.md index 1ec82b8053fe2980e3eaecb8666b86e394a2fcd6..4f224d71a1a50122842fb7a1513fd187f9ab8f4f 100644 --- a/content/pt-br/docs/guides/gerando-imagens-aps.md +++ b/content/pt-br/docs/guides/gerando-imagens-aps.md @@ -16,10 +16,10 @@ sendo que o download do imagebuilder de cada roteador pode ser feita no Para esse tutorial será utilizado o AP modelo tplink Archer C7 v5 com o OpenWrt 21.02.2. -:::{note} +{{< alert title="Nota" >}} É recomendável compilar com usuário não privilegiado para evitar alguns *warnings*. -::: +{{< /alert >}} Em uma servidora Debian ou virtual siga os seguintes passos: @@ -61,9 +61,9 @@ Em uma servidora Debian ou virtual siga os seguintes passos: 4. Dentro do diretório do imgbuilder, devemos agora configurar a imagem. - :::{todo} + {{< alert title="TODO" >}} Essa parte está terrivelmente incompleta. - ::: + {{< /alert >}} O processo de configurar a imagem consiste em criar o diretório `files` e depois copiá-lo para dentro do diretório do `imgbuilder`: diff --git a/content/pt-br/docs/guides/usando-ceph-fs.md b/content/pt-br/docs/guides/usando-ceph-fs.md index 7b6eaebe4b6caaea07ae2dc779acacedda7e3f3c..31cfdfd9c4c0f8199c5e44972910a57d9ca9a2da 100644 --- a/content/pt-br/docs/guides/usando-ceph-fs.md +++ b/content/pt-br/docs/guides/usando-ceph-fs.md @@ -2,12 +2,10 @@ title: Como usar o CephFS --- -{{% pageinfo %}} - +{{< alert color="warning" title="Aviso" >}} Este documento visa explicar a administração de diretórios, permissões e quotas do CephFS em produção. Ele NÃO explica como criar um CephFS ou implantar MDS. - -{{% /pageinfo %}} +{{< /alert >}} ## Criando uma autorização diff --git a/content/pt-br/docs/machines/base/duvel.md b/content/pt-br/docs/machines/base/duvel.md index 390ea32d5c5713aa4c46c9c1fe868cf7e494dc7d..6c3f82b8e6c29e42b3f10c46696d587a1681b923 100644 --- a/content/pt-br/docs/machines/base/duvel.md +++ b/content/pt-br/docs/machines/base/duvel.md @@ -2,26 +2,17 @@ title: duvel --- -:::{list-table} -* - **CPU** - - 2x Intel(R) Xeon(R) CPU E5-2680 v2 @ 2.80GHz -* - **RAM** - - 62 GiB -* - **Threads lógicas** - - 40 = 2 sockets x 2 SMT x 10 cores -* - **Sistema operacional** - - Debian GNU/Linux 12 6.1.38-1 (2023-07-14) -* - **Gerenciador de serviços** - - [](/pages/concepts/systemd) -* - **Sistema de arquivos** `/boot` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 921 MiB -* - **Sistema de arquivos** `/` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 229 GiB -* - **Sistema de arquivos** `/tank` - - [ZFS RAIDZ2](/pages/concepts/zfs) 21 TiB -* - **Sistema de arquivos** `/backup` - - [ZFS RAIDZ2](/pages/concepts/zfs) 67 TiB -::: +| | | +|-------------|--------------------| +| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2680 v2 @ 2.80GHz | +| **RAM** | 62 GiB | +| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores | +| **Sistema operacional** | Debian GNU/Linux 12 6.1.38-1 (2023-07-14) | +| **Gerenciador de serviços** | [](/docs/concepts/systemd) | +| **Sistema de arquivos** `/boot` | [](/docs/concepts/ext4) [MD RAID1](/docs/concepts/md) 921 MiB | +| **Sistema de arquivos** `/` | [](/docs/concepts/ext4) [MD RAID1](/docs/concepts/md) 229 GiB | +| **Sistema de arquivos** `/tank` | [ZFS RAIDZ2](/docs/concepts/zfs) 21 TiB | +| **Sistema de arquivos** `/backup` | [ZFS RAIDZ2](/docs/concepts/zfs) 67 TiB | A duvel é a máquina fÃsica que faz backup e permite o acesso ao parque computacional. É possÃvel acessar a duvel externamente através do endereço `duvel.c3sl.ufpr.br`. Em @@ -29,24 +20,24 @@ algumas redes internas, porém, as regras de firewall barram o acesso, sendo necessário a utilização de outra máquina como ponte para acessá-la (por exemplo, através da [](urquell) ou da [](../virtuals/abbey)). -:::{todo} +{{< alert title="TODO" >}} Verificar em qual firewall essa regra de acesso à duvel está, e qual exatamente são os parâmetros. -::: +{{< /alert >}} A duvel está conectado em 10G com o resto do parque computacional através -do switch [](/pages/switches/dc/malbec). +do switch [](/docs/switches/dc/malbec). ## Serviços -- [Let's Encrypt para pegar certificados SSL que rodam no cron à s 9h da manhã.](/pages/services/duvel-ssl) -- [Backups diários, semanais e mensais de várias máquinas virtuais e fÃsicas. Eles executam em horários diferentes variando de 2h à s 4h da manhã e são especificados manualmente no crontab.](/pages/services/duvel-backup) +- [Let's Encrypt para pegar certificados SSL que rodam no cron à s 9h da manhã.](/docs/services/duvel-ssl) +- [Backups diários, semanais e mensais de várias máquinas virtuais e fÃsicas. Eles executam em horários diferentes variando de 2h à s 4h da manhã e são especificados manualmente no crontab.](/docs/services/duvel-backup) - Existe uma verificação diária para verificar se todas as máquinas virtuais constam no crontab, o script `/usr/local/bin/check_backup.sh`. Ao encontrar uma máquina virtual sem backup, o script envia um e-mail para os roots. -- [Servidor IPMI que dá acesso a todos as máquinas, sendo o uso do cliente do IPMI nesta máquina em especÃfico.](/pages/services/duvel-ipmi) -- [Acesso a todos os switches via TFTP e SSH.](/pages/services/switches) +- [Servidor IPMI que dá acesso a todos as máquinas, sendo o uso do cliente do IPMI nesta máquina em especÃfico.](/docs/services/duvel-ipmi) +- [Acesso a todos os switches via TFTP e SSH.](/docs/services/switches) - Monitoramento dos sensores das máquinas integrando IPMI e Zabbix através do arquivo de configuração `/etc/ipmi_monitor.ini`, que envia informações dos sensores a cada minuto para o Zabbix. -- [Gerenciar o Salt, principalmente através do usuário salt.](/pages/services/salt) +- [Gerenciar o Salt, principalmente através do usuário salt.](/docs/services/salt) ## Mapeamento de arquivos @@ -59,7 +50,7 @@ do switch [](/pages/switches/dc/malbec). coisas muito especÃficas usando awk (mover). - `/root/ipmi/acesso.md`: senhas conforme o tipo do acesso desejado (mover para um lugar centralizado fora da máquina). -- `/root/ipmi/howto.md`: Guia de como configurar o acesso IPMI (obsoleto, veja a [](/pages/guides/configuracao-acesso-ipmi)). +- `/root/ipmi/howto.md`: Guia de como configurar o acesso IPMI (obsoleto, veja a [](/docs/guides/configuracao-acesso-ipmi)). - `/root/ipmi/status_ipmi.md`: IP de cada máquina dentro da rede IPMI (mover para um lugar centralizado fora da máquina). - `/root/ipmi/reset_hpc.md`: script que reinicializa as máquinas do C3HPC diff --git a/content/pt-br/docs/machines/base/roble.md b/content/pt-br/docs/machines/base/roble.md index 8fded17c60d95e0d6d8cfcb6c17b33a92fa526a5..377e7a4448c5752d776e65812bad994c0331107a 100644 --- a/content/pt-br/docs/machines/base/roble.md +++ b/content/pt-br/docs/machines/base/roble.md @@ -2,20 +2,14 @@ title: roble --- -:::{list-table} -* - **CPU** - - 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz -* - **RAM** - - 62 GiB -* - **Threads lógicas** - - 40 = 2 sockets x 2 SMT x 10 cores -* - **Sistema operacional** - - Debian GNU/Linux Unstable 6.5.11 (2023-11-19) -* - **Gerenciador de serviços** - - [](/pages/concepts/initd) -* - **Sistema de arquivos** `/` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 111.8 GiB -::: +| | | +|-|-| +| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz | +| **RAM** | 62 GiB | +| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores | +| **Sistema operacional** | Debian GNU/Linux Unstable 6.5.11 (2023-11-19) | +| **Gerenciador de serviços** | [](/pages/concepts/initd) | +| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 111.8 GiB | A roble é a máquina fÃsica que é roteador de toda a rede. diff --git a/content/pt-br/docs/machines/base/urquell.md b/content/pt-br/docs/machines/base/urquell.md index 66dfea8830abf0fee6037f7d6d40e466aa0c35b6..db23a0ee38cda6c6ef50ea6759dd24389981686f 100644 --- a/content/pt-br/docs/machines/base/urquell.md +++ b/content/pt-br/docs/machines/base/urquell.md @@ -2,24 +2,17 @@ title: urquell --- -* - **CPU** - - 2x Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz -* - **RAM** - - 503 GiB -* - **Threads lógicas** - - 64 = 2 sockets x 2 SMT x 16 cores -* - **Sistema operacional** - - Debian GNU/Linux 11 6.1.20-2~bpo11+1 (2023-04-23) -* - **Gerenciador de serviços** - - [](/pages/concepts/systemd) -* - **Sistema de arquivos** `/` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 64G -* - **Sistema de arquivos** `/var` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 156G -* - **Sistema de arquivos** `/nobackup` - - [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T -* - **Sistema de arquivos** `/home` - - [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T +| | | +|-|-| +| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2683 v4 @ 2.10GHz | +| **RAM** | 503 GiB | +| **Threads lógicas** | 64 = 2 sockets x 2 SMT x 16 cores | +| **Sistema operacional** | Debian GNU/Linux 11 6.1.20-2~bpo11+1 (2023-04-23) | +| **Gerenciador de serviços** | [](/pages/concepts/systemd) | +| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 64G | +| **Sistema de arquivos** `/var` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 156G | +| **Sistema de arquivos** `/nobackup` | [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T | +| **Sistema de arquivos** `/home` | [ZFS Mirror 3x3](/pages/concepts/zfs) 13.6T | A Urquell é a máquina fÃsica que gerencia o DINF que acabou recebendo a tarefa de também gerenciar o C3SL. Ela é uma parte crÃtica da infraestrutura, pois diff --git a/content/pt-br/docs/machines/virtuals/abbey.md b/content/pt-br/docs/machines/virtuals/abbey.md index fb85777ed940380943a0a82e46b1997b451adf44..b5a84f91809dd882f1befff4b9710b6fa7269839 100644 --- a/content/pt-br/docs/machines/virtuals/abbey.md +++ b/content/pt-br/docs/machines/virtuals/abbey.md @@ -13,22 +13,15 @@ title: abbey -_- ``` -:::{list-table} -* - **CPU** - - 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz -* - **RAM** - - 62 GiB -* - **Threads lógicas** - - 40 = 2 sockets x 2 SMT x 10 cores -* - **Sistema operacional** - - Debian GNU/Linux 12 6.5.13-1-pve (2024-02-05T13:50Z) -* - **Gerenciador de serviços** - - [](/pages/concepts/systemd) -* - **Sistema de arquivos** `/` - - [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 2.7T -* - **Sistema de arquivos** `/storage` - - [](/pages/concepts/ext4) [MD RAID6](/pages/concepts/md) 29.1T -::: +| | | +|-|-| +| **CPU** | 2x Intel(R) Xeon(R) CPU E5-2690 v2 @ 3.00GHz | +| **RAM** | 62 GiB | +| **Threads lógicas** | 40 = 2 sockets x 2 SMT x 10 cores +| **Sistema operacional** | Debian GNU/Linux 12 6.5.13-1-pve (2024-02-05T13:50Z) | +| **Gerenciador de serviços** | [](/pages/concepts/systemd) | +| **Sistema de arquivos** `/` | [](/pages/concepts/ext4) [MD RAID1](/pages/concepts/md) 2.7T | +| **Sistema de arquivos** `/storage` | [](/pages/concepts/ext4) [MD RAID6](/pages/concepts/md) 29.1T | A Abbey é a máquina fÃsica responsável pela gerência das máquinas virtuais. diff --git a/content/pt-br/docs/services/estrella-dhcpv4.md b/content/pt-br/docs/services/estrella-dhcpv4.md index 4fbe4636d679e2020235627ce8f68ed1236b4c96..da3a1a30f7a09d0d92cc34ed2fdf07472dd8cad3 100644 --- a/content/pt-br/docs/services/estrella-dhcpv4.md +++ b/content/pt-br/docs/services/estrella-dhcpv4.md @@ -2,16 +2,16 @@ title: estrella/Servidor DHCPv4 --- -O servidor de DHCP da [](/pages/machines/base/estrella), o Kea tem como função de atribuir +O servidor de DHCP da [](/docs/machines/base/estrella), o Kea tem como função de atribuir o IPv4 as máquinas da rede. Além disso, ele também indica o endereço dos servidores de DNS, lista de buscas de DNS, o endereço do servidor de boot remoto e o servidor NTP. O servidor faz isso seletivamente, oferecendo informações diferentes dependendo do endereço MAC utilizado pelo cliente para colocá-lo em uma determinada sub-rede (associada a uma VLAN). -:::{note} -Não usamos um servidor DHCPv6, sendo os [IPv6 atribuÃdos via autoconfiguração](/pages/concepts/autoconfig-ipv6). -::: +{{< alert title="Nota" >}} +Não usamos um servidor DHCPv6, sendo os [IPv6 atribuÃdos via autoconfiguração](/docs/concepts/autoconfig-ipv6). +{{< /alert >}} A configuração do servidor DHCP é feita através do NetBox. Nas [interfaces de rede da estrella no NetBox](https://netbox.c3sl.ufpr.br/dcim/devices/49/interfaces/) diff --git a/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md b/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md index a23546112423319ab354c7cf5d56400781c5fe35..a1bf3859d6f89825ddbefb0bd53ed111bb43e7bf 100644 --- a/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md +++ b/content/pt-br/docs/services/forsyn-monitoramento-zabbix.md @@ -2,7 +2,7 @@ title: forsyn/Monitoramento Zabbix --- -A [](/pages/machines/base/forsyn) é a máquina que executa o servidor de +A [](/docs/machines/base/forsyn) é a máquina que executa o servidor de monitoramento Zabbix, responsável por coletar dados importantes das máquinas do C3SL (tanto fÃsicas quanto virtuais), bem como enviar alertas relacionados a elas. @@ -37,7 +37,7 @@ pode ser a causa (é possÃvel ver isso na interface web do servidor). ## Rede Essa máquina tem conexão direta de 10Gb com o switch -[](/pages/switches/dc/malbec). +[](/docs/switches/dc/malbec). Nomes que apontam para essa máquina: - `forsyn.c3sl.ufpr.br`, `forsyn.dfs`, `forsyn.arcond`: Nome da forsyn @@ -79,18 +79,18 @@ O monitoramento do ar de precisão do datacenter é feito por meio de um micrinh proprietário dele que 'não temos acesso'. No momento da escrita desse texto, o monitoramento foi recém migrado da -[](/pages/machines/base/urquell) para a [](/pages/machines/base/forsyn), mas +[](/docs/machines/base/urquell) para a [](/docs/machines/base/forsyn), mas aparentemente há alguma regra de *firewall* **interna** do micrinho que permite apenas a urquell fazer as requisições SNMP. Não foi feita nenhuma gambiarra para contornar isso, logo o monitoramento do ar de precisão pela forsyn não ocorre atualmente. -:::{note} +{{< alert title="Nota" >}} Uma possÃvel solução envolveria mexer no *firewall* da urquell e fazer a forsyn fazer as requisições através dela. Não foi feito por ser bizarro isso ser necessário. -::: +{{< /alert >}} ## Planos para o futuro * Sincronizar o Zabbix com uma base de dados que seja 'fonte da verdade': O que diff --git a/content/pt-br/docs/services/k8s-rootdocs.md b/content/pt-br/docs/services/k8s-rootdocs.md index 84250d24952f9fe080568cf14a6ce42b0243bf94..a0877804ea208e581bac139c9ce94c4724c50248 100644 --- a/content/pt-br/docs/services/k8s-rootdocs.md +++ b/content/pt-br/docs/services/k8s-rootdocs.md @@ -17,11 +17,20 @@ stages: build: stage: build image: - name: gcr.io/kaniko-project/executor:v1.23.2-debug + name: gcr.io/kaniko-project/executor:debug entrypoint: [""] script: - - echo "{\"auths\":{\"harbor.c3sl.ufpr.br\":{\"username\":\"$HARBOR_USER\",\"password\":\"$HARBOR_PASSWORD\"}}}" > /kaniko/.docker/config.json - - /kaniko/executor --context . --destination harbor.c3sl.ufpr.br/root/docs --cache=true --dockerfile "${CI_PROJECT_DIR}/Dockerfile" + - echo "{\"auths\":{\"${HARBOR_HOST}\":{\"auth\":\"$(echo -n ${HARBOR_USERNAME}:${HARBOR_PASSWORD} | base64 -w 0)\"}}}" > /kaniko/.docker/config.json + - >- + /kaniko/executor + --context "${CI_PROJECT_DIR}" + --dockerfile "${CI_PROJECT_DIR}/Dockerfile" + --destination "${HARBOR_HOST}/${HARBOR_PROJECT}/${CI_PROJECT_NAME}:${CI_COMMIT_TAG}" + --single-snapshot + --snapshot-mode=redo + --use-new-run + --cache=true + --compressed-caching=true deploy: stage: deploy diff --git a/content/pt-br/docs/services/urquell-autenticacao-dinf.md b/content/pt-br/docs/services/urquell-autenticacao-dinf.md index fc719b560a218374cce79f9f7f6d6ab15fb973ab..45dc53720a0ded254eaeb63917d29a155f07c8e2 100644 --- a/content/pt-br/docs/services/urquell-autenticacao-dinf.md +++ b/content/pt-br/docs/services/urquell-autenticacao-dinf.md @@ -33,10 +33,10 @@ Onde: - `<login>`: login do usuário - `<shell>`: caminho para o novo shell, ex: /bin/zsh -:::{note} +{{< alert title="Nota" >}} É importante que todos terminais e virtuais tenham o shell que o usuário utiliza, caso contrário ele não conseguirá fazer login. -::: +{{< /alert >}} Exemplo: diff --git a/content/pt-br/docs/services/urquell-dns.md b/content/pt-br/docs/services/urquell-dns.md index fe9f97e9ac2fc56b58402f0c00aa6eccb327d306..ec163df04e800070abfa81db1b4d80cb87ec1344 100644 --- a/content/pt-br/docs/services/urquell-dns.md +++ b/content/pt-br/docs/services/urquell-dns.md @@ -2,42 +2,42 @@ title: urquell/Servidor DNS --- -:::{note} +{{< alert title="Nota" >}} Há um trabalho concorrente para replicar a configuração do servidor DNS da urquell. A documentação atual é o [guia de configuração -do servidor de DNS da teorica](/pages/guides/teorica-dns). -::: +do servidor de DNS da teorica](/docs/guides/teorica-dns). +{{< /alert >}} -A [](/pages/machines/base/urquell) é servidora primária e autoritativa de DNS sobre os domÃnios: +A [](/docs/machines/base/urquell) é servidora primária e autoritativa de DNS sobre os domÃnios: - `c3sl.ufpr.br`: domÃnio do C3SL, autoridade dada pela AGTIC. - `inf.ufpr.br`: domÃnio do Departamento de Informática, autoridade dada pela AGTIC. - `c3local`: domÃnio interno usado para máquinas dos laboratórios, acoplado ao [serviço de DHCPv4](estrella-dhcpv4). - `home`: domÃnio interno usada para máquinas que montam o diretório home - através do NFS como a [](/pages/virtuals/macalan). + através do NFS como a [](/docs/virtuals/macalan). - `dfs`: domÃnio interno usado para sistemas de arquivos distribuÃdos. - Historicamente usado para o Gluster, agora usado pelo [](/pages/concepts/ceph). + Historicamente usado para o Gluster, agora usado pelo [](/docs/concepts/ceph). Todas as máquinas que precisam usar o CephFS precisam estar cadastradas neste nome. - `nobreak`: domÃnio interno usado para acesso aos nobreaks. - `arcond`: domÃnio interno usado para acesso aos ares-condicionados. -A [](/pages/machines/base/sagres) possui um [serviço de DNS secundário](sagres-dns) +A [](/docs/machines/base/sagres) possui um [serviço de DNS secundário](sagres-dns) que apenas replica os registros de DNS usando -[transferências de zona](/pages/concepts/dns.md#transferencias-de-zona). +[transferências de zona](/docs/concepts/dns.md#transferencias-de-zona). Vale lembrar que a autoridade sobre os domÃnios externos `c3sl.ufpr.br` e `inf.ufpr.br` é configurada por IP pela AGTIC em seus servidores DNS por -[registros de cola](/pages/concepts/dns.md#registros-de-cola). +[registros de cola](/docs/concepts/dns.md#registros-de-cola). Outro detalhe de implementação importante é que o DNS do C3SL não implementa DNSSEC. Para que isso aconteça, porém, é necessário que o domÃnio acima, o `ufpr.br` gerenciado pela AGTIC também o implemente, assinando e dando legitimamente para as nossas chaves. -Além de ser servidora de DNS autoritativa, a [](/pages/machines/base/urquell) +Além de ser servidora de DNS autoritativa, a [](/docs/machines/base/urquell) também é a servidora de DNS recursiva da rede interna e os computadores aprendem -isso através do [servidor DHCPv4](/pages/services/estrella-dhcpv4). Isso significa +isso através do [servidor DHCPv4](/docs/services/estrella-dhcpv4). Isso significa que praticamente todas as consultas de nomes são feitas a ela (para resolver o IP de qualquer nome como `google.com`). Mas essa funcionalidade está limitada a rede interna para evitar alguns tipos de ataques de DNS. diff --git a/content/pt-br/docs/switches/config/huawei.md b/content/pt-br/docs/switches/config/huawei.md index 754bbe8fb601afe6763d9c195d1ec8e193aaf75c..6dfc5842c56e4ac98186d91d41f222cd4ba6121f 100644 --- a/content/pt-br/docs/switches/config/huawei.md +++ b/content/pt-br/docs/switches/config/huawei.md @@ -3,10 +3,10 @@ title: Huawei description: Como configurar o switch da marca Huawei --- -:::{note} +{{< alert tile="Nota" >}} Para desfazer um comando você pode rodar o mesmo comando novamente com `undo` na frente. -::: +{{< /alert >}} ## Coleta de informações @@ -345,11 +345,11 @@ interface XGigabitEthernet0/0/4 port trunk allow-pass vlan <tag vlan1> <tag vlan2> <tag vlan3> <tag vlan4> <tag vlan5> ``` -:::{note} +{{< alert title="Nota" >}} O comando `port link-type trunk` só é necessário em portas que ainda não foram configuradas, ou que estava em access. Se a porta já estiver em "trunk", não é necessário repetir o comando para adicionar as VLANs. -::: +{{< /alert >}} #### Adicionar VLAN em várias portas trunk @@ -390,7 +390,7 @@ interface XGigabitEthernet0/0/4 ## Salvar configuração -Na [](/pages/machines/base/duvel), ative o TFTP: +Na [](/docs/machines/base/duvel), ative o TFTP: ``` $ /etc/init.d/tftpd-hpa start @@ -406,13 +406,13 @@ $ save nome.zip $ tftp 10.90.90.55 put nome.zip arquivo ``` -Na [](/pages/machines/base/duvel), desative o TFTP: +Na [](/docs/machines/base/duvel), desative o TFTP: ``` $ /etc/init.d/tftpd-hpa stop ``` Depois, descompacte o arquivo com `unzip` e copie o arquivo de configuração -para a [](/pages/machines/base/urquell). +para a [](/docs/machines/base/urquell). O local destino é mapas/switches/conf/huawei/ diff --git a/content/pt-br/docs/switches/dc/malbec.md b/content/pt-br/docs/switches/dc/malbec.md index 5a32871f5cd77f1bc227d89e4836c9e5a64913b1..298403075ae946d9729180a45c0dc7445678a1ec 100644 --- a/content/pt-br/docs/switches/dc/malbec.md +++ b/content/pt-br/docs/switches/dc/malbec.md @@ -2,24 +2,17 @@ title: malbec --- -:::{list-table} -* - **Marca** - - pica8 -* - **Modelo** - - P-3922 -* - **MTBF** - - 129 916h (~14.8 anos) -* - **Localização** - - Rack 2 do Data Center -* - **Patrimônio** - - 481855 -* - **Portas Normais** - - 48x10Gigabit (SFP+) [1-48] -* - **Portas de Uplink** - - 4x40Gigabit (QSFP+) [49-52] -::: +| | | +|-|-| +| **Marca** | pica8 | +| **Modelo** | P-3922 | +| **MTBF** | 129 916h (~14.8 anos) | +| **Localização** | Rack 2 do Data Center | +| **Patrimônio** | 481855 | +| **Portas Normais** | 48x10Gigabit (SFP+) [1-48] | +| **Portas de Uplink** | 4x40Gigabit (QSFP+) [49-52] | -O switch central. O acesso à Internet é mediado pela [](/pages/machines/base/roble). +O switch central. O acesso à Internet é mediado pela [](/docs/machines/base/roble). ``` +--------+ diff --git a/content/pt-br/docs/virtuals/bbb.md b/content/pt-br/docs/virtuals/bbb.md index 6cbbe799dceb9ce142af893dea1b10efdeb2f542..94db78d8c84efa3c697e726fe5bf2348451e1866 100644 --- a/content/pt-br/docs/virtuals/bbb.md +++ b/content/pt-br/docs/virtuals/bbb.md @@ -2,21 +2,19 @@ title: bbb --- -:::{list-table} -* - **Sistema Operacional** - - Ubuntu 18.04.6 LTS -* - **Kernel** - - Compilado pelo c3sl - (GNU/Linux 5.10.77-minmvs x86_64) -::: +| | | +|-|-| +| **Sistema Operacional** | Ubuntu 18.04.6 LTS | +| **Kernel** | Compilado pelo c3sl - (GNU/Linux 5.10.77-minmvs x86_64) | A máquina virtual bbb roda os serviços da [aplicação BigBlueButton](https://bigbluebutton.org/), uma plataforma de sala de aula virtual disponÃvel em [bbb.c3sl.ufpr.br](https://bbb.c3sl.ufpr.br). O frontend utilizado é o Greenlight, uma aplicação separada que roda na mesma -máquina virtual usando [](/pages/concepts/docker). +máquina virtual usando [](/docs/concepts/docker). ## Serviços -A máquina virtual bbb roda os seguintes serviços usando [](/pages/concepts/systemd): +A máquina virtual bbb roda os seguintes serviços usando [](/docs/concepts/systemd): - nginx - freeswitch @@ -33,23 +31,23 @@ A máquina virtual bbb roda os seguintes serviços usando [](/pages/concepts/sys - bbb-html5-frontend@2 - etherpad - bbb-web -- greenlight (contêiner [](/pages/concepts/docker)) -- Postgres (contêiner [](/pages/concepts/docker)) +- greenlight (contêiner [](/docs/concepts/docker)) +- Postgres (contêiner [](/docs/concepts/docker)) -É possÃvel verificar o estado de cada serviço pelo [](/pages/concepts/systemd). +É possÃvel verificar o estado de cada serviço pelo [](/docs/concepts/systemd). Porém, no caso da aplicação BBB, o aconselhado é utilizar o seu próprio comando `bbb-conf --status`. -:::{note} -O Greenlight é o frontend para o BigBlueButton, e está -localizado no diretório `/root/greenlight-v3`. -É recomendável fazer dump do banco antes de mexer no Greenlight. +{{< alert title="Nota" >}} +O Greenlight é o frontend para o BigBlueButton, e está localizado no diretório +`/root/greenlight-v3`. É recomendável fazer dump do banco antes de mexer no +Greenlight. ```console $ docker exec -it postgres pg_dump -U postgres \ -d greenlight-v3-production > bbb_greenlight_$(date -I).sql ``` -::: +{{< /alert >}} ## Configuração do firewall @@ -59,7 +57,7 @@ A virtual está em uma única VLAN, MVC3. E as configurações de firewall atuai 2. Outras portas especÃficas são: - No [firewall da roble](/pages/services/roble-firewall): + No [firewall da roble](/docs/services/roble-firewall): ``` # bbb ports @@ -67,7 +65,7 @@ A virtual está em uma única VLAN, MVC3. E as configurações de firewall atuai --dports 16384:32768 -j ACCEPT ``` - No [firewall da estrella](/pages/services/estrella-firewall): + No [firewall da estrella](/docs/services/estrella-firewall): ``` chain FORWARD { ip daddr bbb.c3sl.ufpr.br udp dport 16384-65535 counter packets 0 bytes 0 accept } @@ -145,7 +143,7 @@ Se quiser monitorar em tempo real faça: $ bbb-conf --watch ``` -O Greenlight roda dentro de [](/pages/concepts/docker), então os logs +O Greenlight roda dentro de [](/docs/concepts/docker), então os logs ficam dentro do contêiner. Para ver os logs do contêiner faça: ``` @@ -177,7 +175,7 @@ o BBB e atualizar do Greenlight. O algoritmo é: A primeira coisa que se deve fazer antes de atualizar é parar a aplicação e fechar a virtual no firewall. Para isso, basta tirar a virtual das listas `http_int_allowed` e `http_int_allowed` dos -arquivos `rede/{firewall,firewall-ip}` no [](/pages/services/roble-firewall). +arquivos `rede/{firewall,firewall-ip}` no [](/docs/services/roble-firewall). ### Atualizar o sistema operacional @@ -297,10 +295,10 @@ Nice=-10 Execute o comando `systemctl daemon-reload` e reinicie o BigBlueButton com `bbb-conf --restart`. -:::{note} +{{< alert title="Nota" >}} Note que [a solução sugerida pela documentação do projeto](https://docs.bigbluebutton.org/support/troubleshooting/#bbb-webrtc-sfu-fails-to-start-with-a-setscheduler-error) não funciona. Ela consiste em criar um arquivo em `/etc/systemd/system/bbb-webrtc-sfu.service.d/override.conf`, e assim não precisaria se alterar o arquivo de serviço a cada nova atualização. Porém, isso não funciona. -::: +{{< /alert >}} diff --git a/content/pt-br/docs/virtuals/webmail.md b/content/pt-br/docs/virtuals/webmail.md index 19fa15058866c7abb7de4150098f4d8fc5fb23f3..4a3ff45bfa9d6c10870416ea411c38ba810d56d4 100644 --- a/content/pt-br/docs/virtuals/webmail.md +++ b/content/pt-br/docs/virtuals/webmail.md @@ -4,10 +4,9 @@ title: webmail O Roundcube pode ser instalado via Salt. -{{% pageinfo %}} +{{< alert title="Nota" >}} É necessário "abrir a máquina virtual para o mundo" antes de rodar estes estados. -{{% /pageinfo %}} - +{{< /alert >}} ## Instalação