Este glossário foi desenvolvido para facilitar a compreensão dos principais termos e conceitos usados em TI e no ambiente corporativo, oferecendo definições objetivas e acessíveis. Cada entrada foi cuidadosamente elaborada para proporcionar uma visão clara e rápida sobre temas que, muitas vezes, podem parecer complexos ou técnicos.
A proposta é que este material sirva como uma referência prática para iniciantes e profissionais, permitindo uma consulta rápida e confiável. Para quem deseja se aprofundar, incluímos referências e sugestões de leitura adicional, ampliando o entendimento e a aplicação de cada termo no dia a dia profissional.
Vale ressaltar que os conceitos aqui abordados, foram pesquisados pelos autores, e podem ter utilizado IAs generativas e/ou pesquisas na internet.
Artigo atualizado em: 2024-11-20 04:43:02 -0300
Total de termos: 153
Autor: Leonardo Pangaio - Data: 2024-11-10
O Address Resolution Protocol (ARP) é um protocolo de rede utilizado para mapear endereços IP em endereços MAC dentro de uma rede local. Isso é essencial para que dispositivos na mesma rede se comuniquem de forma eficiente. O ARP consulta o endereço IP de um dispositivo e o converte em seu endereço MAC, permitindo a transmissão de dados no nível de enlace.
No modelo OSI, o ARP atua na Camada 2 (Enlace), pois envolve a comunicação direta entre dispositivos em uma rede local. É utilizado principalmente em redes Ethernet para garantir que os dados sejam entregues corretamente aos dispositivos de destino.
Autor: Leonardo Pangaio - Data: 2024-11-17
Ansible é uma ferramenta de automação de configuração e orquestração que usa arquivos YAML para definir estados desejados de sistemas. Ele é amplamente utilizado para provisionar servidores, configurar aplicativos e gerenciar infraestruturas.
A simplicidade do Ansible, baseada em uma arquitetura sem agentes, torna-o uma escolha popular para DevOps. Ele suporta integrações com ferramentas como Terraform, Kubernetes e Docker.
- Site Oficial do Ansible - How Ansible Works;
- Site Oficial do Ansible;
- Wikipedia sobre Ansible;
- Medium sobre Ansible;
- Opensource sobre Ansible;
- 4Linux sobre Ansible;
- RedHat sobre Ansible;
- NetApp sobre Ansible;
- Playlist do Youtube sobre Ansible;
- Documentação Oficial do Ansible;
Autor: Leonardo Pangaio - Data: 2024-11-17
O Apache Airflow é uma plataforma para criar, agendar e monitorar workflows programáveis. Ele é amplamente usado para automatizar pipelines de dados e processos repetitivos.
Workflows no Airflow são definidos como ou em inglês directed acyclic graphs (DAGs), o que permite um controle preciso sobre dependências e agendamento de tarefas.
- Documentação Oficial do Apache Airflow;
- Site Oficial do Apache Airflow;
- Wikipedia sobre Apache Airflow;
- Aquare.la sobre Apache Airflow;
- Data Science Academy;
- Alura sobre Apache Airflow;
- Infnet sobre Apache Airflow;
Autor: Leonardo Pangaio - Data: 2024-11-08
Apache Kafka é uma plataforma distribuída de streaming de dados projetada para lidar com grandes volumes de informações em tempo real. Diferente de sistemas de filas tradicionais, o Kafka armazena dados em logs distribuídos e permite que múltiplos consumidores leiam as mensagens, o que o torna ideal para aplicações de análise de dados em tempo real, processamento de eventos e integração de sistemas.
Kafka é frequentemente usado em arquiteturas de microservices e data lakes, e sua estrutura de log facilita a replicação e recuperação de dados em diferentes ambientes. Ele oferece um sistema escalável e de baixa latência, permitindo que empresas como LinkedIn e Uber processem milhões de eventos por segundo.
- Confluent sobre Apache Kafka;
- Apache Kafka official website;
- RedHat sobre Apache Kafka;
- Google Cloud sobre Apache Kafka;
- IBM sobre Apache Kafka;
- Wikipedia sobre Apache Kafka;
- Oracle sobre Apache Kafka;
Autor: Leonardo Pangaio - Data: 2024-11-17
ArgoCD é uma ferramenta de entrega contínua, ou em inglês continuous deployment (CD) focada em Kubernetes, que permite gerenciar e sincronizar o estado das aplicações implantadas com a configuração do Git. É uma implementação prática de GitOps.
Ele monitora o estado do cluster Kubernetes e alerta se há divergências em relação ao código-fonte, garantindo consistência no deploy.
Autor: Leonardo Pangaio - Data: 2024-11-17
O arquivo de exclusões do Docker .dockerignore
é utilizado para listar arquivos e diretórios que devem ser ignorados durante o processo de build de uma imagem Docker. Ele funciona de maneira semelhante ao .gitignore e ajuda a evitar que arquivos desnecessários ou sensíveis sejam incluídos na imagem.
Esse arquivo melhora a eficiência do build, reduzindo o tamanho das imagens e protegendo informações confidenciais. Ele deve estar localizado no mesmo diretório que o Dockerfile.
Autor: Leonardo Pangaio - Data: 2024-11-17
O arquivo de variáveis de ambiente .env
armazena pares de chave-valor que representam configurações ou segredos de uma aplicação. Essas variáveis podem ser lidas por ferramentas ou scripts, incluindo Docker Compose e frameworks como Flask e Django.
Usar arquivos .env facilita o gerenciamento de ambientes, permitindo configurar valores diferentes para desenvolvimento, teste e produção sem alterar o código-fonte.
Autor: Leonardo Pangaio - Data: 2024-11-17
O arquivo de exclusões do Git .gitignore
define arquivos ou diretórios que não devem ser rastreados pelo sistema de controle de versão Git. Ele é útil para evitar o versionamento de arquivos temporários, logs, ou configurações específicas de ambiente.
Esse arquivo ajuda a manter o repositório limpo e consistente entre diferentes desenvolvedores, evitando conflitos e dados desnecessários, além de evitar o vazamento de arquivos que podem ter credenciais ou dados sensíveis.
- GeeksForGeeks sobre .gitignore;
- Git Oficial sobre .gitignore;
- Atlassian sobre .gitignore;
- W3Schools sobre .gitignore;
- Github sobre .gitignore;
- Gerador de .gitignore;
- Github exemplos de .gitignore;
- Trybe sobre .gitignore;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Dockerfile é um arquivo de texto usado para definir as instruções de criação de uma imagem Docker. Ele especifica o sistema base, bibliotecas, dependências e o comportamento padrão do contêiner ao ser iniciado.
Por meio do Dockerfile, é possível criar imagens consistentes e automatizar o build de ambientes personalizados para aplicações.
- Docker sobre Dockerfile (Referência);
- GeeksForGeeks sobre Dockerfile;
- Docker sobre Dockerfile (Overview);
- Docker sobre Dockerfile (Criando um);
- Alura sobre Dockerfile;
- Microsoft sobre Dockerfile;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Makefile é um arquivo de configuração usado pela ferramenta make para automatizar tarefas repetitivas em projetos, como compilação de código, execução de testes e geração de artefatos. Ele define regras que descrevem como arquivos dependem uns dos outros e como atualizá-los.
Comumente usado em linguagens como C e C++, o Makefile é uma ferramenta poderosa também para gerenciar scripts e pipelines de automação.
- Playlist do Youtube sobre Makefile;
- GNU sobre Make e Makefile;
- Wikipedia sobre Make;
- Opensource sobre Makefile;
- Medium sobre Makefile;
- Colby sobre Makefile;
- Wikipedia sobre Make (2);
- Tutorial de Makefile;
- Wikipedia sobre Makefile;
Autor: Leonardo Pangaio - Data: 2024-11-20
O docker-compose.yml, também conhecido como compose file, é o arquivo usado pelo Docker Compose para definir e executar aplicativos com vários contêineres. Ele utiliza a sintaxe YAML para descrever serviços, redes e volumes necessários para a aplicação.
Esse arquivo simplifica a orquestração de contêineres, permitindo que equipes executem stacks completas com um único comando, como docker-compose up
.
- Docker sobre Compose File;
- Divio sobre Compose File;
- 4Linux sobre Compose File;
- iMasters sobre Docker;
- dev.to sobre Docker;
Autor: Leonardo Pangaio - Data: 2024-11-10
Atomicidade, Consistência, Isolamento e Durabilidade (ACID) é um conjunto de propriedades que garante a confiabilidade das transações em bancos de dados relacionais. Cada letra representa uma propriedade importante para assegurar que as operações ocorram de maneira previsível e segura:
- Atomicidade: Assegura que todas as operações de uma transação são concluídas ou nenhuma delas será. Ou seja, a transação é uma unidade indivisível; se ocorrer um erro em qualquer parte, toda a transação é desfeita.
- Consistência: Garante que a transação leva o banco de dados de um estado válido a outro, respeitando todas as regras e restrições definidas. Se alguma regra for violada, a transação é revertida.
- Isolamento: Assegura que as transações não interfiram entre si quando executadas simultaneamente. Cada transação deve ocorrer independentemente, e os efeitos de uma transação não são visíveis para outras até que esteja concluída.
- Durabilidade: Garante que, uma vez que uma transação é concluída, as alterações são permanentes, mesmo que haja uma falha no sistema.
Essas propriedades são essenciais para aplicativos que requerem alta confiabilidade, como sistemas bancários, onde a precisão e a consistência dos dados são fundamentais.
- MongoDB sobre ACID;
- Wikipedia sobre ACID;
- GeeksForGeeks sobre ACID;
- Amazon AWS sobre the difference between ACID and BASE;
- MongoDB sobre ACID Compliance;
Autor: Leonardo Pangaio - Data: 2024-11-10
BASE é um modelo de consistência mais flexível, usado frequentemente em bancos de dados NoSQL, que prioriza a disponibilidade e a performance sobre a consistência imediata dos dados:
- Basicamente Disponível (Basically Available): O sistema deve estar sempre disponível para consulta, mesmo que os dados não estejam em seu estado mais atualizado ou consistente. Isso significa que o sistema permite leituras mesmo que algumas partes estejam temporariamente indisponíveis.
- Estado Suave (Soft State): O estado do sistema pode mudar ao longo do tempo, mesmo sem novas entradas, devido à replicação e sincronização de dados em sistemas distribuídos.
- Consistência Eventual (Eventual Consistency): Em vez de garantir a consistência imediata, o sistema garante que, em algum momento, os dados serão consistentes para todos os usuários. Isso é aceito em cenários onde a atualização em tempo real não é essencial.
O modelo BASE é comum em sistemas distribuídos que precisam ser escaláveis e tolerantes a falhas, como redes sociais e aplicativos de streaming, onde a disponibilidade e a velocidade são mais importantes que a consistência em tempo real dos dados.
Autor: Leonardo Pangaio - Data: 2024-11-10
O Border Gateway Protocol (BGP) é um protocolo de roteamento de camada de aplicação utilizado para troca de informações de roteamento entre sistemas autônomos (AS) na Internet. Ele permite que redes distintas determinem a melhor rota para transmitir dados, especialmente em larga escala, como acontece entre grandes ISPs (Provedores de Serviços de Internet). O BGP é o protocolo que sustenta a conectividade global da internet, viabilizando o tráfego de dados de uma rede para outra.
Como protocolo de roteamento entre domínios, o BGP é projetado para ser robusto e adaptável a mudanças na topologia da rede. Por ser de camada de aplicação, o BGP utiliza a porta 179 TCP para comunicação, conectando sistemas de roteadores de diferentes redes e permitindo que ajustem rotas de acordo com políticas definidas.
- Cloudflare sobre BGP;
- Amazon AWS sobre BGP;
- Wikipedia sobre BGP;
- Fortinet sobre BGP;
- CISCO sobre BGP;
- Cloudflare sobre BGP kidnapping;
Autor: Leonardo Pangaio - Data: 2024-11-18
O processo de build, que em uma tradução livre seria construir, é a etapa em que o código-fonte de uma aplicação é convertido em um artefato executável, como um binário ou uma imagem de container. Ele pode incluir etapas como compilação, testes e empacotamento.
O build é essencial em pipelines de integração contínua, do inglês continuous integration (CI), automatizando a criação de versões consistentes para distribuição ou deploy.
Autor: Leonardo Pangaio - Data: 2024-11-11
Cascading Style Sheets (CSS) é uma linguagem de estilo usada para descrever a apresentação de documentos escritos em linguagens de marcação como HTML. Ela permite a estilização de elementos, definindo cores, layouts, fontes, e o posicionamento visual, separando o conteúdo da estrutura visual. CSS é essencial para a criação de interfaces modernas e responsivas.
CSS é amplamente utilizado em conjunto com HTML e JavaScript para criar websites dinâmicos e atraentes. Ele permite que desenvolvedores apliquem estilos em várias páginas simultaneamente, mantendo a consistência visual e a eficiência de desenvolvimento.
- W3Schools sobre CSS;
- MDN sobre CSS;
- Wikipedia sobre CSS;
- MDN sobre CSS (2);
- GeeksForGeeks sobre CSS;
- Hostinger sobre CSS;
- Javatpoint sobre CSS;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Change Data Capture (CDC) é uma funcionalidade do Microsoft SQL Server que permite capturar e registrar alterações nos dados em tempo real.
A captura de dados de alteração utiliza o SQL Server Agent para registrar inserções, atualizações e exclusões que ocorrem em uma tabela. Portanto, ele torna essas alterações de dados acessíveis para serem facilmente consumidas usando um formato relacional. Os dados da coluna e os metadados essenciais necessários para aplicar esses dados de alteração a um ambiente de destino são capturados para as linhas modificadas e armazenados em tabelas de alteração que espelham a estrutura da coluna das tabelas de origem rastreadas. Além disso, funções com valor de tabela estão disponíveis para acesso sistemático a esses dados de alteração pelos consumidores.
Um bom exemplo de um consumidor de dados que essa tecnologia tem como alvo é um aplicativo de extração, transformação e carregamento (ETL). Um aplicativo ETL carrega incrementalmente dados de alteração de tabelas de origem do SQL Server para um data warehouse ou data mart. Embora a representação das tabelas de origem dentro do data warehouse deva refletir as alterações nas tabelas de origem, uma tecnologia de ponta a ponta que atualiza uma réplica da origem não é apropriada. Em vez disso, você precisa de um fluxo confiável de dados de alteração que seja estruturado para que os consumidores possam aplicá-lo a representações de destino diferentes dos dados. A captura de dados de alteração do SQL Server fornece essa tecnologia.
Autor: Leonardo Pangaio - Data: 2024-11-10
Comma-Separated Values (CSV) é um formato de arquivo que armazena dados em texto, separados por vírgulas. Cada linha do arquivo representa um registro, e cada coluna é separada por uma vírgula, permitindo a fácil importação e exportação de dados para softwares como planilhas e bancos de dados.
O CSV é amplamente utilizado para transferência de dados entre diferentes sistemas, especialmente quando a simplicidade e compatibilidade são prioridades. Este formato é particularmente útil para armazenamento temporário de dados ou para integração entre sistemas distintos.
Autor: Leonardo Pangaio - Data: 2024-11-09
O Common Internet File System (CIFS) é um protocolo de compartilhamento de arquivos utilizado para permitir que dispositivos em uma rede acessem arquivos remotos de forma transparente. O CIFS é uma versão aprimorada do SMB (Server Message Block), utilizado principalmente em redes Windows, permitindo o acesso a arquivos, impressoras e outras fontes de dados em servidores remotos.
Embora o CIFS tenha sido amplamente utilizado em redes locais, o SMB mais moderno (SMB2 e SMB3) é agora preferido devido a melhorias de desempenho e segurança. Também utiliza a porta 445 na maioria das implementações modernas, sendo uma versão anterior do SMB.
- Wikipedia sobre SMB;
- F5 Glossary sobre CIFS;
- GeeksForGeeks sobre CIFS;
- Amazon AWS sobre the difference between CIFS and NFS;
- Lenovo sobre CIFS;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Computer-Aided Design (CAD) é um conjunto de ferramentas de software utilizado para criar projetos técnicos e desenhos em diversas áreas, como arquitetura, engenharia e design de produto. Com o CAD, os profissionais podem desenvolver modelos 2D e 3D, simulando a construção ou fabricação de um produto antes da execução.
Esses sistemas oferecem funcionalidades como edição precisa de geometria, visualização em três dimensões, análise de desempenho e integração com outras ferramentas de engenharia e manufatura. Exemplos populares de software CAD incluem AutoCAD, SolidWorks e CATIA.
Autor: Leonardo Pangaio - Data: 2024-11-18
Um container é uma unidade leve de software que inclui o código da aplicação, dependências e bibliotecas necessárias para sua execução. Containers são isolados do sistema operacional subjacente, garantindo portabilidade.
Ferramentas como Docker e Kubernetes facilitam a criação, gerenciamento e orquestração de containers em ambientes locais e na nuvem.
- Docker sobre Containers;
- Wikipedia sobre Containers;
- Google Cloud sobre Containers;
- RedHat sobre Containers;
- IBM sobre Containers;
- Escola Superior de Redes sobre Container;
- Microsoft Azure sobre Containers;
- Treinaweb sobre Containers;
- HP sobre Containers;
- CISCO sobre Containers;
- Código Fonte TV sobre Containers;
Autor: Leonardo Pangaio - Data: 2024-11-10
Container as a Service (CaaS) é um serviço em nuvem que permite aos usuários gerenciar e orquestrar contêineres de software. Com CaaS, as empresas podem executar aplicações em contêineres sem precisar se preocupar com a infraestrutura subjacente, como redes, armazenamento e escalabilidade. Esse modelo é especialmente vantajoso para desenvolvimento ágil e para equipes que desejam automação em implantação.
Ao usar CaaS, os desenvolvedores conseguem configurar, escalar e gerenciar contêineres de forma simplificada, aproveitando plataformas como Kubernetes e Docker Swarm. Esse serviço geralmente é oferecido por provedores de nuvem, que lidam com toda a infraestrutura de contêineres, permitindo que os usuários se concentrem no desenvolvimento e entrega de suas aplicações.
- IBM sobre CaaS;
- RedHat sobre CaaS;
- Atlassian sobre CaaS;
- Checkpoint sobre CaaS;
- HP sobre CaaS;
- DIO sobre difference between types of cloud computing;
- DIO sobre different types of cloud computing;
Autor: Leonardo Pangaio - Data: 2024-11-20
Continuous Delivery (Entrega Contínua, CD) é a prática de preparar software para implantação de maneira automatizada e consistente. Ele envolve a validação de builds, testes automatizados, e a disponibilização do artefato final em ambientes de produção ou staging.
O objetivo é permitir implantações rápidas, seguras e frequentes, minimizando o tempo de espera entre o desenvolvimento e a entrega ao cliente.
- Wikipedia sobre CD;
- Amazon AWS sobre CD;
- Codefresh sobre CD;
- RedHat sobre CD;
- Microsoft sobre CD;
- IBM sobre CD;
- Atlassian sobre CD;
- ServiceNow sobre CD;
- Wikipedia sobre CD (pt-br);
- IBM sobre CD (Youtube);
Autor: Leonardo Pangaio - Data: 2024-11-20
A Implantação Contínua (Continuous Deployment) é uma prática no ciclo de vida de desenvolvimento de software onde mudanças no código são automaticamente implantadas em produção após serem aprovadas em todas as etapas do pipeline, como testes e validações.
Essa abordagem elimina a necessidade de intervenção manual na entrega de novas versões, permitindo iterações rápidas e frequentes, o que é essencial em ambientes de DevOps.
- IBM sobre CD;
- IBM sobre CD;
- Wikipedia sobre CD;
- Atlassian sobre CD;
- GitHub sobre CD;
- JetBrains sobre CD;
- ServiceNow sobre CD;
- Objective sobre CD;
Autor: Leonardo Pangaio - Data: 2024-11-20
Continuous Integration (Integração Contínua, CI) é a prática de integrar código de diferentes desenvolvedores em um repositório compartilhado com frequência, seguida de validação automatizada. Essa validação inclui testes unitários, de integração e análise de qualidade de código.
A CI reduz riscos, acelera o desenvolvimento e garante que alterações no código sejam integradas de forma consistente e confiável.
- Código Fonte TV sobre CI;
- Atlassian sobre CI;
- Amazon AWS sobre CI;
- Wikipedia sobre CI;
- IBM sobre CI;
- RedHat sobre CI/CD;
- GitLab sobre CI/CD;
- Objective sobre CI;
- Atlassian sobre CI/CD;
- CircleCI sobre CI;
- ServiceNow sobre CI;
- Unity sobre CI/CD;
- Amazon AWS sobre CI/CD;
- IBM sobre CI (Youtube);
Autor: Leonardo Pangaio - Data: 2024-11-20
Continuous Integration/Continuous Delivery (Integração Contínua/Entrega Contínua, CI/CD) é a combinação de práticas que automatizam o ciclo de desenvolvimento, integração e implantação de software. Ele inclui a validação de código, execução de testes e a entrega do software para produção de forma frequente e confiável.
Essas práticas são fundamentais em metodologias ágeis e DevOps, promovendo maior colaboração e redução de erros no processo de desenvolvimento.
- RedHat sobre CI/CD;
- GitLab sobre CI/CD;
- Wikipedia sobre CI/CD;
- Unity sobre CI/CD;
- GitHub sobre CI/CD;
- Atlassian sobre CI/CD;
- IBM sobre CI/CD;
- GeeksForGeeks sobre CI/CD;
- Fortinet sobre CI/CD;
- Medium sobre CI/CD;
- Objective sobre CI/CD;
- ServiceNow sobre CI/CD;
Autor: Leonardo Pangaio - Data: 2024-11-10
Data Control Language (DCL) é uma subcategoria da linguagem SQL dedicada ao controle de acesso aos dados em bancos de dados. Ela é composta principalmente por comandos como GRANT
e REVOKE
, que controlam permissões de acesso aos dados e recursos do banco.
Esses comandos são essenciais para a segurança do banco de dados, pois permitem definir quem pode realizar operações específicas, como ler, escrever ou modificar dados. A DCL ajuda os DBAs a gerenciar e proteger o acesso aos dados de maneira estruturada e segura.
Autor: Leonardo Pangaio - Data: 2024-11-10
Data Definition Language (DDL) é uma linguagem utilizada para definir a estrutura e os objetos de um banco de dados, incluindo tabelas, índices e esquemas. Os comandos DDL, como CREATE
, ALTER
e DROP
, permitem criar, modificar e excluir estruturas de dados.
A DDL é fundamental para configurar e organizar o banco de dados, sendo usada para estabelecer a base de armazenamento de dados. Além disso, esses comandos são executados em transações que são imediatamente aplicadas, garantindo que as definições de dados estejam sempre atualizadas.
Autor: Leonardo Pangaio - Data: 2024-11-10
Data Manipulation Language (DML) é uma subcategoria da linguagem SQL usada para manipular dados em bancos de dados. Com comandos como INSERT, UPDATE, DELETE, e SELECT, a DML permite a inserção, atualização, exclusão e consulta de dados.
A DML é o núcleo da interação com os dados armazenados e é essencial para operações transacionais. Ela permite que os usuários consultem e modifiquem dados em tempo real, de acordo com as necessidades do negócio.
Autor: Leonardo Pangaio - Data: 2024-11-08
Data Migration é o processo de mover dados de um sistema ou ambiente para outro, seja para atualização de hardware, troca de software ou migração para a nuvem. Esse processo envolve etapas como extração, transformação e carregamento de dados, e exige uma cuidadosa avaliação de compatibilidade e integridade.
Durante a migração de dados, é comum realizar mapeamento de dados e testes extensivos para garantir que não haja perda ou corrupção de dados. Esse processo é fundamental para garantir que os dados permaneçam precisos e úteis após a transição para o novo sistema.
- Microsoft Azure sobre Data Migration;
- IBM sobre Data Migration;
- Netapp sobre Data Migration;
- Wikipedia sobre Data Migration;
Autor: Leonardo Pangaio - Data: 2024-11-10
Data Query Language (DQL) é uma subcategoria da SQL usada exclusivamente para consultas de dados. O comando SELECT
é o principal comando DQL, permitindo que os usuários recuperem dados específicos de tabelas no banco de dados.
A DQL é fundamental para recuperar informações do banco de dados sem alterar sua estrutura. Com ela, é possível realizar consultas simples e complexas, filtrando e organizando os dados conforme necessário.
Autor: Leonardo Pangaio - Data: 2024-11-10
Data Transformation Language (DTL) é um termo usado para definir operações que transformam dados de um formato para outro, geralmente dentro de processos de ETL (Extração, Transformação e Carga). Essas transformações são aplicadas para adaptar os dados às necessidades de um sistema ou aplicativo específico.
A DTL é essencial para manter a consistência e integridade dos dados em ambientes onde a integração de diferentes fontes é necessária. Ela pode incluir operações de formatação, limpeza, agregação e enriquecimento de dados, sendo amplamente utilizada em processos de migração e integração.
Autor: Leonardo Pangaio - Data: 2024-11-20
Database Administration and Operations (DBAOps) aplica princípios de DevOps à administração de bancos de dados, promovendo automação e colaboração entre equipes de DBAs e desenvolvedores. Ele busca reduzir gargalos e melhorar o desempenho no gerenciamento de dados.
Práticas comuns incluem a automação de deploys de esquemas, monitoramento de banco de dados e execução de backups, aumentando a agilidade e a confiabilidade no gerenciamento de dados.
Sem referências até o momento.
Autor: Leonardo Pangaio - Data: 2024-11-10
O Database Administrator (DBA) é o profissional responsável pela administração de bancos de dados, cuidando da configuração, manutenção, segurança e otimização do desempenho. Este profissional é fundamental para garantir a disponibilidade e integridade dos dados em uma organização.
Além de gerenciar as operações diárias do banco de dados, o DBA também participa do planejamento e implementação de atualizações e migrações. Ele colabora com desenvolvedores para otimizar consultas e garantir a eficiência do sistema de gerenciamento de banco de dados (SGBD).
Autor: Leonardo Pangaio - Data: 2024-11-08
Database Migration é um tipo específico de migração que envolve a transição de um banco de dados de um sistema para outro. Esse processo pode ser necessário ao mudar o sistema de gerenciamento de banco de dados (SGBD) ou ao atualizar a infraestrutura. Migrações de banco de dados precisam de planejamento rigoroso, já que alterações na estrutura e dependências de dados podem impactar o funcionamento das aplicações.
A migração pode incluir mudanças no schema de dados, mapeamento entre tipos de dados diferentes e testes de performance. Ferramentas como AWS DMS, Azure Database Migration Service, e ferramentas nativas de SGBDs ajudam a facilitar a migração, minimizando o risco de problemas.
Autor: Leonardo Pangaio - Data: 2024-11-10
Dead Letter Queue (DLQ) é uma fila de mensagens em sistemas de mensageria que armazena mensagens que não puderam ser entregues ou processadas com sucesso. As DLQs são usadas para rastrear e resolver falhas, garantindo que mensagens problemáticas não prejudiquem o fluxo geral de dados no sistema.
A DLQ é uma ferramenta importante para sistemas que exigem alta confiabilidade e monitoramento constante. Ela permite que as equipes identifiquem e corrijam problemas, garantindo a integridade e continuidade das operações de mensagens.
Autor: Leonardo Pangaio - Data: 2024-11-10
A Demilitarized Zone (DMZ) é uma área de rede que adiciona uma camada extra de segurança, isolando servidores externos da rede interna. Em uma DMZ, servidores de acesso público, como web servers e servidores de e-mail, estão expostos à Internet, mas são separados por firewalls para evitar acessos não autorizados à rede interna.
Essa configuração é comum em redes corporativas para proteger dados confidenciais, mantendo serviços de acesso público separados dos recursos internos. A DMZ é uma parte essencial da arquitetura de segurança de rede, garantindo que serviços críticos sejam acessíveis sem comprometer a segurança.
- Fortinet sobre DMZ (pt-br);
- Wikipedia sobre DMZ;
- Checkpoint sobre DMZ;
- Fortinet sobre DMZ;
- F5 sobre DMZ;
- Barracuda sobre DMZ;
Autor: Leonardo Pangaio - Data: 2024-11-18
O termo Deploy, Deployment ou ainda Application Deployment (Implantação, tradução livre) refere-se ao processo de disponibilizar uma aplicação em um ambiente, como desenvolvimento, homologação ou produção. Ele pode incluir a instalação de software, configuração de infraestrutura, e a atualização de serviços existentes.
Automatizar o deploy com ferramentas como Ansible, Kubernetes e Jenkins ajuda a reduzir erros e agilizar o processo.
Autor: Leonardo Pangaio - Data: 2024-11-20
Development and Operations (DevOps) é um conjunto de práticas, ferramentas e filosofias culturais que promovem a colaboração entre equipes de desenvolvimento (Dev) e operações (Ops). Ele visa acelerar o ciclo de desenvolvimento e entrega de software, garantindo alta qualidade e eficiência.
DevOps utiliza automação, CI/CD, e metodologias ágeis para melhorar a comunicação entre equipes, reduzir o time-to-market e aumentar a estabilidade operacional.
- Hashtag Programação sobre DevOps;
- Código Fonte TV sobre DevOps;
- Dynatrace sobre DevOps;
- Alura sobre DevOps;
- Amazon AWS sobre DevOps;
- GitLab sobre DevOps;
- Wikipedia sobre DevOps;
- Atlassian sobre DevOps;
- Microsoft sobre DevOps;
- IBM sobre DevOps;
- GitHub sobre DevOps;
- GeeksForGeeks sobre DevOps;
- RedHat sobre DevOps;
- Treinaweb sobre DevOps;
- Oracle sobre DevOps;
- GeeksForGeeks tutorial sobre DevOps;
Autor: Leonardo Pangaio - Data: 2024-11-20
Development, Security and Operations (DevSecOps) é uma extensão do DevOps que integra práticas de segurança em todas as etapas do ciclo de vida do desenvolvimento de software. Ele foca em criar aplicações seguras desde o início, em vez de adicionar segurança como um passo final.
Ferramentas como análise de código estático (SAST) e testes dinâmicos de segurança (DAST) são integradas em pipelines CI/CD para garantir a conformidade e mitigar riscos de segurança.
- Código Fonte TV sobre DevSecOps;
- Dynatrace sobre DevSecOps;
- Amazon AWS sobre DevSecOps;
- RedHat sobre DevSecOps;
- Microsoft sobre DevSecOps;
- IBM sobre DevSecOps;
- GitLab sobre DevSecOps;
- Broadcom sobre DevSecOps;
- GeeksForGeeks sobre DevSecOps;
- ServiceNow sobre DevSecOps;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Docker é uma plataforma de código aberto para criar, gerenciar e executar contêineres. Ele utiliza imagens de contêiner como blueprint, permitindo empacotar aplicações junto com suas dependências para garantir consistência em qualquer ambiente.
Além de ser um padrão de mercado, o Docker facilita práticas DevOps, como CI/CD, permitindo que desenvolvedores e equipes entreguem software mais rapidamente.
- Docker sobre Docker;
- IBM sobre Docker;
- Amazon AWS sobre Docker;
- Wikipedia sobre Docker;
- RedHat sobre Docker;
- Oracle sobre Docker;
- Alura sobre Docker;
- Hostinger sobre Docker;
- Microsoft sobre Docker;
- Locaweb sobre Docker;
- Atlassian sobre Kubernetes vs. Docker;
- 4Linux sobre Docker;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Registry (Registro, tradução livre) é um repositório de contêineres usado para armazenar, gerenciar e distribuir imagens Docker. Exemplos populares incluem Docker Hub, Nexus, GitHub Packages e Artifactory.
Os registries permitem compartilhar imagens entre equipes e automatizar a distribuição de artefatos em pipelines CI/CD.
- Linux Tips sobre Docker Registry;
- GeeksForGeeks sobre Docker Registry;
- RedHat sobre Docker Registry;
- Docker sobre Docker Registry;
- iMasters sobre Docker Registry;
Autor: Leonardo Pangaio - Data: 2024-11-10
O Domain Name System (DNS) é um sistema de resolução de nomes que traduz nomes de domínio legíveis para endereços IP. Quando um usuário acessa um site pelo nome, o DNS converte esse nome no IP correspondente, permitindo que o navegador localize o servidor correto. O DNS opera na camada de aplicação e utiliza a porta 53, funcionando sobre os protocolos TCP e UDP.
Esse protocolo é essencial para a navegação na web, e sua estrutura hierárquica garante que nomes de domínio sejam resolvidos de forma rápida e eficiente. O DNS também inclui registros que definem o roteamento e a segurança dos domínios.
- Cloudflare sobre DNS;
- Amazon AWS sobre DNS;
- Wikipedia sobre DNS;
- IBM sobre DNS;
- IBM sobre DNS;
- Kaspersky sobre DNS;
- Fortinet sobre DNS;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Dynamic Application Security Testing (DAST) é um tipo de teste de segurança que avalia o comportamento de uma aplicação enquanto ela está em execução. Diferente do SAST, que verifica o código-fonte, o DAST simula ataques externos para identificar vulnerabilidades em tempo de execução, como falhas de autenticação, injeções de SQL e falhas de configuração.
Ferramentas DAST populares incluem OWASP ZAP, Burp Suite e Acunetix, que oferecem scanners de vulnerabilidades automatizados para testes de segurança em tempo real.
- Opentext sobre DAST;
- Wikipedia sobre DAST;
- IBM sobre DAST;
- Circleci sobre DAST;
- Sonar sobre DAST;
- Check Point sobre DAST;
Autor: Leonardo Pangaio - Data: 2024-11-10
O Dynamic Host Configuration Protocol (DHCP) é um protocolo de rede que permite a configuração automática de endereços IP para dispositivos em uma rede. Ele opera na camada de aplicação e atribui automaticamente endereços IP, gateways e outros parâmetros de rede para dispositivos conectados, facilitando a administração da rede.
O DHCP utiliza as portas UDP 67 (servidor) e 68 (cliente) e é essencial para redes dinâmicas, especialmente em ambientes empresariais e residenciais. Esse protocolo simplifica a configuração de rede, evitando a necessidade de configurar IPs manualmente em cada dispositivo.
- Microsoft sobre DHCP;
- Wikipedia sobre DHCP (pt-br);
- NordVPN sobre DHCP;
- Wikipedia sobre DHCP;
- Fortinet sobre DHCP;
- GeeksForGeeks sobre DHCP;
Autor: Leonardo Pangaio - Data: 2024-11-10
Dynamic Link Library (DLL) é um tipo de biblioteca de código compartilhável no sistema operacional Windows que permite que múltiplos programas acessem o mesmo código. As DLLs contêm funções e recursos que podem ser reutilizados por diferentes aplicações, economizando espaço de armazenamento e melhorando a eficiência de desenvolvimento.
A DLL permite que os desenvolvedores compartilhem código entre programas, facilitando a manutenção e atualização de software. No entanto, o uso de DLLs também pode gerar problemas de compatibilidade, especialmente quando versões diferentes são usadas em sistemas.
- Wikipedia sobre DLL (pt-br);
- Wikipedia sobre DLL;
- Lenovo sobre DLL;
- Indeed sobre DLL;
- Microsoft sobre DLL;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Enterprise Resource Planning (ERP) é um sistema de gestão empresarial que integra diferentes áreas de uma empresa, como finanças, recursos humanos, logística e vendas. Ele unifica os dados e processos da organização, permitindo que informações fluam entre departamentos e que processos possam ser gerenciados de maneira centralizada. Um ERP é essencial para empresas que desejam melhorar a eficiência operacional e obter uma visão unificada de suas operações.
As soluções ERP, como SAP, Oracle e Microsoft Dynamics, são amplamente utilizadas em empresas de médio e grande porte para otimizar processos e apoiar decisões estratégicas. Em ambientes hospitalares, um ERP pode se integrar com sistemas de saúde, como HIS, RIS e LIS, fornecendo uma visão holística da organização.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Enterprise Service Bus (ESB), barramento de serviços, ou ESB, é uma arquitetura de software que facilita a integração e comunicação entre diferentes sistemas e aplicações dentro de uma empresa. Ele age como um intermediário entre sistemas, permitindo a troca de dados e a orquestração de processos, mesmo entre sistemas que não foram projetados para se comunicarem diretamente.
Um ESB pode oferecer funcionalidades como roteamento, transformação de dados, e suporte a diversos protocolos de comunicação. Ele é particularmente útil em ambientes corporativos complexos onde muitos sistemas precisam trabalhar de maneira integrada e pode utilizar tecnologias como MuleSoft e IBM Integration Bus para gerenciar a comunicação entre sistemas.
- Amazon AWS sobre ESB;
- Wikipedia sobre ESB;
- Wikipedia sobre ESB (pt-br);
- MuleSoft sobre ESB;
- IBM sobre ESB;
- SAP sobre ESB;
Autor: Leonardo Pangaio - Data: 2024-11-10
Ethernet (Ethernet) é uma tecnologia de rede com fio amplamente utilizada para redes locais (LANs). Ela define os padrões para comunicação em redes cabeadas, incluindo tipos de cabos, velocidades e formatos de frame. A Ethernet permite que dispositivos compartilhem dados em uma rede local, conectando-se a switches ou roteadores.
No modelo OSI, a Ethernet opera na Camada 2 (Enlace) e parcialmente na Camada 1 (Física), pois abrange desde o meio físico até a forma de transmissão de dados entre dispositivos.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Extract, Transform and Load (ETL) é um processo utilizado em sistemas de dados que envolve a extração de dados de uma ou mais fontes, a transformação desses dados para um formato adequado à análise ou ao armazenamento, e, finalmente, o carregamento dos dados em um sistema de destino, como um data warehouse. Esse processo é essencial para centralizar dados de diferentes fontes e consolidá-los, permitindo que sejam usados para geração de relatórios, análises ou apoio à tomada de decisão.
Durante a etapa de extração, os dados são coletados de diversas fontes, que podem incluir bancos de dados, APIs, arquivos CSV ou até mesmo planilhas. A etapa de transformação envolve limpar, padronizar e, em alguns casos, enriquecer esses dados. O carregamento final normalmente armazena os dados em um banco de dados centralizado, onde podem ser acessados por ferramentas de BI e análise. Ferramentas de ETL como Apache NiFi, Talend e Informatica são comuns em ambientes corporativos.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Fast Healthcare Interoperability Resources (FHIR) é um padrão para a troca de informações em saúde desenvolvido pela HL7 International. Ele é amplamente adotado para criar sistemas de saúde interoperáveis e oferece um modelo baseado em recursos (ou "recursos de saúde") que pode ser facilmente adaptado e interpretado por diferentes sistemas. Um recurso no FHIR pode ser qualquer entidade relevante na saúde, como pacientes, diagnósticos ou procedimentos.
O FHIR facilita a integração com APIs RESTful e utiliza formatos de dados como JSON e XML, permitindo que informações sejam trocadas de maneira mais ágil e compreensível entre diferentes sistemas. Por suas características modernas, FHIR é cada vez mais utilizado em projetos de saúde digitais e é suportado por grandes players da indústria, como Google e Microsoft.
Autor: Leonardo Pangaio - Data: 2024-11-09
O File Transfer Protocol (FTP) é um protocolo de rede amplamente utilizado para a transferência de arquivos entre sistemas cliente e servidor, e opera na Camada 7 do modelo OSI. Sem criptografia nativa, o FTP transmite dados como texto simples, tornando-o menos seguro que versões aprimoradas, como SFTP e FTPS. É uma escolha comum para hospedar e transferir arquivos em redes locais, embora seu uso tenha diminuído com o aumento de opções mais seguras.
A porta padrão para o FTP é a porta 21 para o canal de controle. No modo ativo, o FTP também utiliza portas adicionais dinâmicas para a transferência de dados, mas o canal de controle é sempre estabelecido inicialmente na porta 21.
- Wikipedia sobre FTP;
- Fortinet sobre FTP;
- GeeksForGeeks sobre FTP;
- Hostinger sobre FTP;
- Solarwinds sobre FTP;
Autor: Leonardo Pangaio - Data: 2024-11-10
O Gateway Load Balancing Protocol (GLBP) é um protocolo da Cisco que permite balanceamento de carga entre vários gateways, proporcionando alta disponibilidade e redundância. Diferente do HSRP ou VRRP, que têm apenas um gateway ativo por vez, o GLBP permite que múltiplos gateways atuem simultaneamente, melhorando o desempenho e a distribuição de tráfego.
No modelo OSI, o GLBP atua na Camada 3 (Rede), gerenciando o encaminhamento e o balanceamento de tráfego entre diferentes roteadores dentro da rede.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Geographic Information System (GIS) é uma ferramenta tecnológica que permite a coleta, análise, interpretação e visualização de dados geográficos. Usado amplamente em áreas como urbanismo, meio ambiente e logística, o GIS permite que informações espaciais sejam combinadas com dados não espaciais para criar mapas, gráficos e relatórios que ajudem na tomada de decisão.
Os GIS podem ser usados para diversas finalidades, desde o mapeamento de rotas e a análise de recursos naturais até o planejamento urbano e o monitoramento de áreas agrícolas. Eles operam com dados de diversas fontes, como satélites, drones e sensores geoespaciais.
- ESRI sobre GIS;
- Imagem sobre GIS;
- Wikipedia sobre GIS (pt-br);
- IBM sobre GIS;
- USGS sobre GIS;
- Wikipedia sobre GIS;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Gerenciamento Eletrônico de Documentos (GED) refere-se ao conjunto de tecnologias e práticas utilizadas para digitalizar, armazenar, organizar, e controlar documentos eletrônicos. O sistema GED permite que as organizações gerenciem o ciclo de vida de documentos de maneira eficiente, desde a criação até o arquivamento ou eliminação.
Esses sistemas são essenciais para empresas que precisam gerenciar grandes volumes de documentos e informações, oferecendo funções como buscas rápidas, controle de versões e segurança no armazenamento. O GED é comumente integrado com sistemas de gestão empresarial, como ERPs, e soluções de workflow.
- TOTVS sobre GED;
- GED Portal;
- Wikipedia sobre GED;
- Neomind sobre GED;
- Selbetti sobre GED;
- Sydle sobre GED;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Git é um sistema de controle de versão distribuído que permite rastrear mudanças no código, colaborar em equipe e gerenciar diferentes versões de projetos. Ele é conhecido por sua eficiência, flexibilidade e capacidade de operação offline.
Amplamente adotado na indústria, o Git suporta ferramentas como GitHub e GitLab e é fundamental em fluxos de trabalho modernos, como GitOps e CI/CD.
- Git site oficial;
- Wikipedia sobre Git;
- Atlassian sobre Git;
- W3Schools sobre Git e Github;
- Github sobre Git;
- Github sobre Git (2);
- Microsoft sobre Git;
- Trybe sobre Git;
- Dio sobre Git;
- Código Fonte TV sobre Git;
- Curso em Vídeo sobre Git e GitHub;
Autor: Leonardo Pangaio - Data: 2024-11-20
Git Operations (GitOps) é uma abordagem para gerenciar infraestruturas e aplicações usando Git como fonte única de verdade. As mudanças são aplicadas por meio de PRs (Pull Requests) ou commits, que acionam pipelines automatizados para sincronizar estados declarativos com os ambientes de execução.
Amplamente usado em ambientes Kubernetes, o GitOps promove auditoria, rastreabilidade e consistência, facilitando o gerenciamento de configurações e implantações.
- Linux Tips sobre GitOps;
- FullCycle sobre GitOps;
- Alura sobre GitOps;
- GitLab sobre GitOps;
- RedHat sobre GitOps;
- Codefresh sobre GitOps;
- Atlassian sobre GitOps;
- CloudBees sobre GitOps;
- RedHat sobre Workflow do GitOps;
- GeeksForGeeks sobre GitOps;
- GeeksForGeeks overview sobre GitOps;
Autor: Leonardo Pangaio - Data: 2024-11-20
O GitHub é uma plataforma de hospedagem de repositórios Git baseada na nuvem. Ele oferece ferramentas para colaboração, rastreamento de issues, revisão de código e integração com pipelines CI/CD.
O GitHub é amplamente utilizado por desenvolvedores, empresas e comunidades de código aberto para gerenciar projetos e facilitar o trabalho em equipe.
- Código Fonte TV sobre GitHub;
- Wikipedia sobre GitHub;
- W3Schools sobre GitHub;
- TechTarget sobre GitHub;
- Digital.gov sobre GitHub;
- Coursera sobre GitHub;
- Ebac sobre GitHub;
- Hostinger sobre GitHub;
- Locaweb sobre GitHub;
- Wikipedia sobre GitHub (pt-br);
- TechTudo sobre GitHub;
- CanalTech sobre GitHub;
- Site Oficial do GitHub;
Autor: Leonardo Pangaio - Data: 2024-11-20
O GitLab é uma plataforma de DevSecOps que combina hospedagem de repositórios Git com ferramentas de integração contínua (CI), entrega contínua (CD), gerenciamento de projetos e segurança. Ele pode ser usado na nuvem ou autogerenciado.
Com recursos robustos para colaboração e automação, o GitLab é uma solução completa para equipes que buscam gerenciar todo o ciclo de vida de software em um único lugar.
- Wikipedia sobre GitLab;
- Site Oficial do GitLab;
- W3Schools sobre GitLab;
- Wikipedia sobre GitLab (pt-br);
- Diolinux sobre Git, GitHub e GitLab;
- 4Linux sobre GitLab;
Autor: Leonardo Pangaio - Data: 2024-11-11
Google Cloud Platform (GCP) é uma suíte de serviços de computação em nuvem oferecida pelo Google, incluindo armazenamento, computação, machine learning, e bancos de dados. Empresas utilizam o GCP para hospedar, escalar e gerenciar suas aplicações.
O GCP oferece recursos que vão desde infraestrutura básica, como VMs e armazenamento, até serviços avançados, como análise de dados e inteligência artificial.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Health Level Seven (HL7) é um conjunto de padrões internacionais de interoperabilidade para troca de informações clínicas e administrativas em sistemas de saúde. Ele define a estrutura e a organização das mensagens de saúde, garantindo que os dados sejam consistentes e compreensíveis em sistemas de diferentes fornecedores. Seu foco está em permitir que hospitais, laboratórios, clínicas e outras instituições de saúde troquem dados de forma segura e padronizada.
O HL7 é composto por várias versões e tipos de mensagens, e cada uma é destinada a um tipo de informação, como resultados de exames, informações de pacientes e eventos clínicos. O HL7 opera na camada de aplicação do modelo OSI (Camada 7), permitindo que sistemas de saúde comuniquem dados padronizados em alto nível.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Hospital Information System (HIS) é um sistema de informações hospitalares desenvolvido para gerenciar todos os aspectos operacionais de uma instituição de saúde. Ele inclui funcionalidades como o agendamento de consultas, registro de pacientes, controle de estoques, e emissão de relatórios. Um HIS é essencial para otimizar processos hospitalares e melhorar a qualidade do atendimento.
Integrado a outros sistemas, como sistemas de faturamento e prontuário eletrônico, o HIS possibilita uma visão integrada do funcionamento hospitalar. Ele é frequentemente integrado com ferramentas como Mirth e padrões como HL7, possibilitando a interoperabilidade de dados e o compartilhamento de informações entre diferentes sistemas.
Autor: Leonardo Pangaio - Data: 2024-11-09
O Hyper-Converged Infrastructure (HCI) (Infraestrutura Hiperconvergente) é uma abordagem de infraestrutura de TI que combina computação, armazenamento e rede em uma única solução integrada. Em vez de cada um desses elementos ser gerido separadamente, o HCI usa software para consolidar e gerenciar todos os recursos em um cluster único e escalável. Essa configuração facilita o gerenciamento, aumenta a eficiência e melhora a escalabilidade, já que novos nós podem ser adicionados conforme necessário. A infraestrutura hiperconvergente é amplamente utilizada em ambientes de data centers e nuvem privada por sua capacidade de simplificar operações e reduzir o custo de hardware.
- Wikipedia sobre HCI;
- VMWare sobre HCI;
- IBM sobre HCI;
- HP sobre HCI;
- Nutanix sobre HCI;
- Cisco sobre HCI;
Autor: Leonardo Pangaio - Data: 2024-11-11
Hypertext Markup Language (HTML) é a principal linguagem de marcação para a criação de páginas web. Ele define a estrutura de uma página web, especificando elementos como cabeçalhos, parágrafos, links, imagens e tabelas. HTML é a base de qualquer documento web e é interpretado pelos navegadores para exibir o conteúdo.
HTML é frequentemente utilizado junto com CSS e JavaScript para criar interfaces interativas. Cada elemento HTML possui uma função específica que organiza e apresenta o conteúdo de forma intuitiva.
- W3Schools sobre HTML;
- GeeksForGeeks sobre HTML;
- Hostinger sobre HTML;
- W3Schools sobre HTML (2);
- Wikipedia sobre HTML;
- MDN sobre HTML;
- MDN sobre HTML (2);
Autor: Leonardo Pangaio - Data: 2024-11-06
O Hypertext Transfer Protocol (HTTP) é o protocolo de comunicação padrão para a transferência de documentos na web, utilizado para carregar páginas HTML, imagens e outros recursos. Ele opera na Camada de Aplicação (Camada 7) do modelo OSI, a camada mais próxima do usuário. O HTTP é baseado em uma arquitetura cliente-servidor, onde o navegador solicita recursos ao servidor web e o servidor responde com os dados solicitados. Ele é simples, sem criptografia ou autenticação, o que significa que os dados trocados podem ser interceptados.
No contexto do modelo OSI, a Camada de Aplicação lida com as interações diretas dos usuários com os serviços da rede, incluindo a transferência de arquivos, emails e, no caso do HTTP, o acesso à web. Embora seja amplamente utilizado, o HTTP por si só não oferece segurança e, por isso, é comum usá-lo em situações onde a proteção dos dados não é uma preocupação central, como o carregamento de conteúdo estático.
A porta padrão do protocolo HTTP é a porta 80.
- MDN Web Docs sobre HTTP;
- MDN Web Docs overview of HTTP;
- Wikipedia sobre HTTP;
- CloudFlare sobre HTTP;
Autor: Leonardo Pangaio - Data: 2024-11-06
O Hypertext Transfer Protocol Secure (HTTPS) é a versão segura do HTTP, que adiciona uma camada de criptografia utilizando SSL/TLS para proteger a comunicação. Embora também opere na Camada de Aplicação (Camada 7), o HTTPS se diferencia do HTTP por fornecer segurança adicional, garantindo a confidencialidade e a integridade dos dados transmitidos. A criptografia ocorre na Camada de Sessão (Camada 5) e na Camada de Transporte (Camada 4), onde os protocolos SSL/TLS operam para assegurar que os dados trocados entre o cliente e o servidor não possam ser lidos ou alterados por terceiros.
O HTTPS é essencial para proteger informações sensíveis, como senhas, dados bancários e transações financeiras, e tornou-se o padrão para qualquer site que deseje garantir a segurança de seus usuários. Ele utiliza a porta 443 por padrão e é fortemente recomendado para qualquer aplicação que lide com dados privados. Além de criptografar os dados, o HTTPS também garante a autenticidade do servidor, o que aumenta a confiança dos usuários ao interagir com a web.
A porta padrão do protocolo HTTPS é a porta 443.
- MDN Glossary sobre HTTPS;
- Amazon AWS sobre the difference between HTTP and HTTPS;
- Wikipedia sobre HTTPS;
- CloudFlare sobre HTTPS;
Autor: Leonardo Pangaio - Data: 2024-11-15
Infrastructure as Code (IaC) é a prática de gerenciar e provisionar a infraestrutura de TI usando código, permitindo automatizar processos e gerenciar recursos de forma eficiente. Ferramentas como Terraform e Ansible facilitam a configuração, atualização e destruição de recursos em cloud e ambientes on-premises.
IaC ajuda a tornar as operações mais ágeis e controladas, especialmente em ambientes de desenvolvimento e produção em nuvem.
- HP sobre IaC;
- Wikipedia sobre IaC;
- RedHat sobre IaC;
- Amazon AWS sobre IaC;
- Microsoft Azure sobre IaC;
- ServiceNow sobre IaC;
- IBM sobre IaC;
- Atlassian sobre IaC;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Infrastructure as a Service (IaaS) fornece infraestrutura de TI (servidores, armazenamento e redes) por meio da nuvem, permitindo que empresas usem recursos virtualizados em vez de comprar e manter hardware físico. Com IaaS, organizações podem escalar seus recursos conforme a demanda, gerenciar sistemas operacionais, aplicativos e dados, enquanto o provedor cuida da infraestrutura subjacente. Exemplos de IaaS incluem Amazon Web Services (AWS), Microsoft Azure e Google Cloud Platform (GCP).
- Google Cloud sobre IaaS;
- Microsoft Azure sobre IaaS;
- Microsoft Azure sobre IaaS (pt-br);
- Amazon AWS sobre IaaS;
- IBM sobre IaaS;
- Google Cloud difference between PaaS, IaaS, SaaS, CaaS;
- Fortinet sobre IaaS;
- Cloudflare sobre IaaS;
- Wikipedia sobre IaaS;
Autor: Leonardo Pangaio - Data: 2024-11-11
Um Integrated Development Environment (IDE) é um software que fornece um conjunto abrangente de ferramentas para o desenvolvimento de software, incluindo editor de código, depurador, e compilador. IDEs populares, como Visual Studio Code, Eclipse, e IntelliJ IDEA, ajudam a organizar e simplificar o fluxo de trabalho de desenvolvimento.
Os IDEs facilitam a codificação ao oferecer recursos como autocompletar, sugestões, e verificação de erros em tempo real. Eles também podem incluir integração com sistemas de controle de versão e suporte para diversas linguagens de programação.
- Amazon AWS sobre IDE;
- Wikipedia sobre IDE;
- RedHat sobre IDE;
- CodeAcademy sobre IDE;
- GeeksForGeeks sobre IDE;
- MongoDB sobre IDE;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Internet Control Message Protocol (ICMP), por sua vez, é um protocolo de comunicação usado para enviar mensagens de controle e erro entre dispositivos de rede. Ele opera na Camada de Rede (Camada 3) do modelo OSI, a camada responsável pelo roteamento de pacotes de dados entre redes. O ICMP é fundamental para o diagnóstico e resolução de problemas de rede, sendo amplamente utilizado em ferramentas como o ping e traceroute, que ajudam a verificar a conectividade e rastrear o caminho dos pacotes na rede.
O ICMP não é utilizado para a transferência de dados de usuário, mas sim para a comunicação de controle entre dispositivos. Ele permite que roteadores e hosts informem sobre erros de entrega, como pacotes não encontrados ou falhas de rede, e forneçam informações sobre a rede, como latência e a rota que os pacotes estão seguindo. Um exemplo típico de mensagem ICMP é o "Destination Unreachable" (destino inalcançável), enviado quando um pacote não pode chegar ao destino. Embora o ICMP seja essencial para o diagnóstico da rede, ele também pode ser usado em ataques como o DoS (Denial of Service), se não for gerenciado corretamente.
Autor: Leonardo Pangaio - Data: 2024-11-10
Internet Information Services (IIS) é um servidor web desenvolvido pela Microsoft para hospedar sites e aplicações na web, especialmente em ambientes Windows. Ele oferece suporte a diversos protocolos, como HTTP, HTTPS, FTP, e SMTP, e é amplamente utilizado para hospedar aplicações ASP.NET e páginas estáticas.
Como servidor web, o IIS opera na Camada 7 (Aplicação) do modelo OSI, lidando com o gerenciamento e entrega de conteúdo web aos clientes.
Autor: Leonardo Pangaio - Data: 2024-11-10
O (Internet Message Access Protocol (IMAP)) é um protocolo de e-mail que permite o acesso e gerenciamento de mensagens de e-mail armazenadas em um servidor. Diferente do POP, o IMAP permite que os e-mails sejam acessados de vários dispositivos, mantendo uma cópia centralizada no servidor.
IMAP opera na Camada 7 (Aplicação) do modelo OSI e utiliza a porta padrão 143 (ou 993 para IMAP sobre SSL/TLS).
- Hostinger sobre IMAP;
- Microsoft sobre IMAP;
- Wikipedia sobre IMAP;
- Cloudflare sobre IMAP;
- MailChimp sobre IMAP;
Autor: Leonardo Pangaio - Data: 2024-11-06
O Internet Protocol (IP) é um protocolo fundamental para a comunicação entre dispositivos em redes, sendo responsável pelo endereçamento e roteamento de pacotes de dados entre sistemas. Ele opera na Camada de Rede (Camada 3) do modelo OSI, que é responsável pela determinação do melhor caminho para os pacotes de dados de um dispositivo a outro em uma rede ou entre redes distintas, como a internet. O IP permite que dispositivos se identifiquem de forma única em uma rede, através de um endereço IP, que pode ser tanto IPv4 quanto IPv6.
O IPv4 utiliza um sistema de endereçamento de 32 bits, o que resulta em cerca de 4 bilhões de endereços únicos, enquanto o IPv6, com seu endereçamento de 128 bits, oferece um número praticamente ilimitado de endereços. O protocolo IP é crucial para a transmissão de dados em redes locais e globais, realizando o encaminhamento dos pacotes, garantindo que cada pacote seja enviado de forma eficiente e chegue ao destino correto. Embora o IP não seja responsável por garantir a entrega dos pacotes, ele trabalha em conjunto com protocolos de transporte, como TCP e UDP, que asseguram a confiabilidade e o controle dos dados durante a transmissão.
Autor: Leonardo Pangaio - Data: 2024-11-15
A Internet of Things (IoT) refere-se à rede de dispositivos físicos interconectados que podem coletar e trocar dados através da internet. A IoT abrange dispositivos como sensores, câmeras, termostatos e eletrodomésticos, que são capazes de comunicar dados entre si e com sistemas maiores.
Esses dispositivos são amplamente utilizados em setores como agricultura, transporte e saúde, permitindo o monitoramento remoto e a automação de processos.
- IBM sobre IoT;
- Wikipedia sobre IoT;
- Oracle sobre IoT;
- HP sobre IoT;
- Amazon AWS sobre IoT;
- CISCO sobre IoT;
- Kaspersky sobre IoT;
- SAP sobre IoT;
- CNN sobre IoT;
- RedHat sobre IoT;
Autor: Leonardo Pangaio - Data: 2024-11-08
Interoperabilidade é a capacidade de sistemas e tecnologias diferentes se comunicarem e trocarem informações de maneira eficaz. Em tecnologia da informação, especialmente no setor de saúde, a interoperabilidade permite que softwares, como sistemas de informações hospitalares, laboratoriais e de prontuário eletrônico, compartilhem dados de forma padronizada e compreensível entre diferentes plataformas. Isso garante que as informações estejam disponíveis em tempo real para médicos, enfermeiros e outros profissionais da área.
A interoperabilidade é vital para integrar dados de várias fontes e possibilitar uma visão unificada do histórico do paciente, aumentando a qualidade do atendimento. Padrões como HL7 e FHIR são usados para garantir interoperabilidade na saúde, enquanto protocolos como REST e SOAP são comuns para integrar aplicações de diferentes setores.
- Wikipedia sobre Interoperability;
- Amazon AWS sobre Interoperability;
- Sankhya sobre Interoperability;
- TOTVS sobre Interoperability;
- GOV.BR sobre Interoperability;
Autor: Leonardo Pangaio - Data: 2024-11-11
JSON Web Token (JWT) é um padrão de token para autenticação e troca de informações entre partes de forma segura. O JWT é composto por três partes: header, payload e assinatura, que permitem verificar a autenticidade e integridade do token.
Os JWTs são amplamente usados em sistemas de autenticação, onde podem ser transmitidos via HTTP para validar sessões de usuários sem armazenar dados no servidor.
- JWT official website;
- Wikipedia sobre JWT;
- Auth0 sobre JWT;
- Postman sobre JWT;
- GeeksForGeeks sobre JWT;
- IBM sobre JWT;
Autor: Leonardo Pangaio - Data: 2024-11-11
Java Database Connectivity (JDBC) é uma API padrão da plataforma Java para interação com bancos de dados. Ele permite que programas executem operações de leitura, gravação e atualização de dados em sistemas de gerenciamento de bancos de dados (SGBDs).
Com o JDBC, desenvolvedores podem criar aplicações que manipulam dados em bases de dados relacionais como MySQL, PostgreSQL e Oracle, de forma padronizada e independente do SGBD.
Autor: Leonardo Pangaio - Data: 2024-11-11
JavaScript Object Notation (JSON) é um formato leve de intercâmbio de dados, fácil para humanos lerem e escreverem, e fácil para máquinas interpretarem e gerarem. JSON é amplamente usado para transmitir dados entre cliente e servidor em aplicações web.
JSON suporta estruturas de dados simples como objetos e arrays, sendo amplamente compatível com diversas linguagens de programação e frequentemente utilizado em APIs.
- W3Schools sobre JSON;
- Wikipedia sobre JSON;
- Oracle sobre JSON;
- MDN aboutJSON;
- JSON official website;
- MongoDB sobre JSON;
- Amazon AWS sobre JSON;
Autor: Leonardo Pangaio - Data: 2024-11-20
O Jenkins é uma ferramenta de automação de código aberto usada principalmente para integração contínua (CI) e entrega contínua (CD). Ele permite a execução de tarefas como builds, testes e deploys de forma automatizada e configurável.
Com suporte a plugins e grande flexibilidade, o Jenkins é uma escolha popular para equipes de desenvolvimento que desejam implementar pipelines personalizados.
- Site Oficial do Jenkins;
- Wikipedia sobre Jenkins;
- GeeksForGeeks sobre Jenkins;
- CloudBees sobre Jenkins;
- GoCache sobre Jenkins;
- Coodesh sobre Jenkins;
- Amazon AWS sobre Jenkins;
- Dio sobre Jenkins;
- GoCache sobre Jenkins (2);
Autor: Leonardo Pangaio - Data: 2024-11-11
Um jumbo frame é um pacote de dados maior que o tamanho padrão do MTU, que é de 1500 bytes em redes Ethernet convencionais. Jumbo frames geralmente têm MTUs de 9000 bytes ou mais. Eles são usados em ambientes de rede de alta performance, como data centers ou redes de armazenamento, onde há necessidade de movimentação de grandes volumes de dados com menos sobrecarga.
Os benefícios de jumbo frames incluem:
- Redução da sobrecarga: Como há menos cabeçalhos a cada pacote, há menor uso da CPU e mais eficiência de rede;
- Desempenho melhorado: Com pacotes maiores, há menos fragmentação e mais dados transmitidos por pacote, o que melhora a taxa de transferência em redes que suportam jumbo frames;
Entretanto, todos os dispositivos na rota de uma transmissão de dados precisam suportar o mesmo MTU para que os jumbo frames sejam transmitidos corretamente.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Kernel-based Virtual Machine (KVM) é uma tecnologia de virtualização para sistemas Linux que permite que o hardware físico de um computador seja particionado em múltiplas máquinas virtuais. Com o KVM, é possível executar várias instâncias de sistemas operacionais, cada uma com seus próprios recursos e configurações, utilizando um único servidor físico.
Com a adoção crescente de contêineres e ambientes virtualizados, o KVM é uma ferramenta importante para provedores de serviços de cloud computing e empresas que buscam otimizar a utilização de seus recursos de hardware.
- RedHat sobre KVM;
- KVM official website;
- Hostinger sobre KVM;
- Amazon AWS sobre KVM;
- Wikipedia sobre KVM;
Autor: Leonardo Pangaio - Data: 2024-11-15
Key Performance Indicator (KPI) são métricas utilizadas para avaliar a performance de uma empresa, equipe ou processo. Os KPIs são indicadores chave que ajudam a medir o progresso em direção a objetivos estratégicos específicos.
Empresas utilizam KPIs para monitorar áreas como vendas, produtividade e satisfação do cliente, auxiliando na tomada de decisões informadas e no alcance das metas.
Autor: Leonardo Pangaio - Data: 2024-11-20
O Kubernetes é uma plataforma de orquestração de contêineres usada para gerenciar o ciclo de vida de aplicações em ambientes distribuídos. Ele permite implantar, escalar e manter contêineres de maneira automática e resiliente.
Criado pelo Google, o Kubernetes é amplamente adotado como padrão para orquestração em nuvem, integrando-se com ferramentas como Docker, Helm e ArgoCD.
- Código Fonte TV sobre Kubernetes;
- Kubernetes sobre Kubernetes;
- Site Oficial do Kubernetes;
- Google Cloud sobre Kubernetes;
- Wikipedia sobre Kubernetes;
- RedHat sobre Kubernetes;
- IBM sobre Kubernetes;
- Alura sobre Kubernetes;
- Rock Content sobre Kubernetes;
- Oracle sobre Kubernetes;
- Amazon AWS sobre Kubernetes;
- Wikipedia sobre Kubernetes (pt-br);
Autor: Leonardo Pangaio - Data: 2024-11-08
O Laboratory Information System (LIS) é um sistema utilizado em laboratórios para gerenciar dados e processos laboratoriais, como amostras, exames e resultados de análises clínicas. Esse sistema melhora a organização e a precisão dos processos de um laboratório, desde o cadastro de amostras até o resultado dos exames. Ele também permite a rastreabilidade das amostras e facilita o controle de qualidade dos testes realizados.
Além disso, o LIS permite a integração com outros sistemas de saúde, como HIS e PEP, para que os resultados de laboratório estejam disponíveis para médicos e pacientes em tempo real. A interoperabilidade do LIS com outros sistemas é essencial para o funcionamento eficiente de instituições de saúde.
Autor: Leonardo Pangaio - Data: 2024-11-08
A Lei Geral de Proteção de Dados (LGPD) é a lei brasileira que regula a coleta, armazenamento, tratamento e compartilhamento de dados pessoais de cidadãos no Brasil. Inspirada na GDPR (General Data Protection Regulation) da União Europeia, a LGPD tem como objetivo proteger a privacidade e a segurança dos dados pessoais, estabelecendo regras claras sobre o consentimento e o tratamento dessas informações.
Em ambientes corporativos e de saúde, a LGPD impõe requisitos rigorosos para o manuseio de dados de pacientes, como o consentimento explícito, minimização de coleta de dados e mecanismos de segurança. Organizações que não cumprem a LGPD estão sujeitas a sanções que incluem multas e outras penalidades.
Autor: Leonardo Pangaio - Data: 2024-11-10
O Lightweight Directory Access Protocol (LDAP) é um protocolo de diretórios que permite acessar e gerenciar serviços de diretórios em uma rede. Ele é amplamente usado em ambientes corporativos para autenticação e autorização, fornecendo uma estrutura para armazenar informações sobre usuários, grupos e dispositivos.
LDAP opera na Camada 7 (Aplicação) do modelo OSI e utiliza a porta padrão 389 (ou 636 para LDAP sobre SSL/TLS).
- Okta sobre LDAP;
- Wikipedia sobre LDAP;
- RedHat sobre LDAP;
- IBM sobre LDAP;
- Microsoft sobre LDAP;
- Fortinet sobre LDAP;
Autor: Leonardo Pangaio - Data: 2024-11-10
Local Area Network (LAN) é uma rede que conecta dispositivos dentro de uma área geográfica limitada, como um escritório, escola ou casa. Ela permite a comunicação rápida e a troca de dados entre dispositivos, sendo normalmente restrita a um único local físico.
A LAN opera principalmente nas Camadas 1 (Física) e 2 (Enlace) do modelo OSI, fornecendo conectividade de rede e determinando o meio físico e os métodos de acesso ao canal de comunicação.
- CISCO sobre LAN;
- Wikipedia sobre LAN;
- Cloudflare sobre LAN;
- CompTIA sobre LAN;
- GeeksForGeeks sobre LAN;
Autor: Leonardo Pangaio - Data: 2024-11-10
Logical Volume Manager (LVM) é uma tecnologia de gerenciamento de armazenamento que permite a criação de volumes lógicos em vez de partições fixas, proporcionando flexibilidade para expandir ou reduzir volumes conforme necessário. O LVM facilita o gerenciamento de armazenamento em sistemas Linux, permitindo que volumes sejam redimensionados sem interromper o sistema.
- Wikipedia sobre LVM;
- Ubuntu sobre LVM;
- RedHat sobre LVM;
- Wikipedia sobre LVM (2);
- RedHat sobre the difference between LVM and Standard Partitioning;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Master Data Management (MDM) é a prática de consolidar, organizar e manter dados principais, como informações de clientes, fornecedores e produtos, para garantir que a empresa possua uma visão única e precisa desses dados. Através de práticas e ferramentas de MDM, as organizações podem criar uma "única versão da verdade", o que melhora a tomada de decisões e a eficiência operacional.
Um sistema de MDM centraliza o gerenciamento de dados principais, permitindo que sejam acessados e atualizados de maneira consistente em todos os departamentos. Ferramentas como Informatica MDM e IBM InfoSphere ajudam a implementar essas práticas, melhorando a qualidade e a confiabilidade dos dados essenciais para os negócios.
Autor: Leonardo Pangaio - Data: 2024-11-11
Maximum Transmission Unit (MTU) define o tamanho máximo de um pacote que pode ser transmitido em uma rede. Ajustar a MTU de forma adequada pode melhorar o desempenho da rede, reduzindo a fragmentação de pacotes.
A MTU está relacionada à Camada 2 (Enlace) do modelo OSI, onde o controle de tamanho de quadro é gerenciado para otimizar o envio de dados. Ele tem relação com vários protocolos, especialmente aqueles que transportam grandes volumes de dados. Protocolos como o TCP (Transmission Control Protocol) e o UDP (User Datagram Protocol), ambos da Camada 4 (Transporte), utilizam o MTU para determinar o tamanho máximo de cada pacote antes de transmiti-lo. O IP (Internet Protocol), da Camada 3 (Rede), também é influenciado pelo MTU, pois os pacotes IP precisam ser fragmentados em tamanhos que respeitem o MTU da rede para evitar perda de dados.
- Cloudflare sobre MTU;
- Wikipedia sobre MTU;
- Okta sobre MTU;
- GeeksForGeeks sobre MTU;
- Huawei sobre MTU;
Autor: Leonardo Pangaio - Data: 2024-11-09
Mergers and Acquisitions (M&A) refere-se a fusões e aquisições, processos em que empresas se unem ou uma adquire a outra. Esses processos são comuns em mercados corporativos e têm o objetivo de aumentar a participação de mercado, expandir a linha de produtos ou acessar novas tecnologias.
As fusões geralmente envolvem empresas que se combinam em uma nova organização, enquanto as aquisições ocorrem quando uma empresa compra outra. Ambos os processos podem envolver complexos aspectos financeiros e regulatórios.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Message Queuing Telemetry Transport (MQTT) é um protocolo de comunicação leve e eficiente para transferência de dados em redes com baixa largura de banda ou conectividade instável. Muito utilizado em IoT (Internet of Things), ele permite que dispositivos se comuniquem por meio de um modelo de publicação e assinatura, onde dados são publicados em tópicos e assinantes podem receber as atualizações desses tópicos.
Operando na camada de aplicação do modelo OSI (Camada 7) e geralmente utiliza a porta padrão 1883 (ou 8883 para MQTT sobre SSL/TLS). O MQTT é utilizado em cenários onde a largura de banda é limitada e o consumo de energia precisa ser mínimo, como em dispositivos IoT que monitoram condições ambientais ou enviam informações para sistemas centrais.
Autor: Leonardo Pangaio - Data: 2024-11-09
O Minimum Viable Product (MVP) é uma versão inicial de um produto ou serviço que contém apenas os recursos essenciais para atender às necessidades de seus primeiros usuários. A ideia por trás do MVP é testar a viabilidade do produto com um número reduzido de funcionalidades antes de realizar investimentos maiores em desenvolvimento.
Ao lançar um MVP, as empresas podem validar hipóteses, ajustar funcionalidades e obter feedback de clientes reais, evitando gastar recursos excessivos em algo que pode não ter demanda.
- Wikipedia sobre MVP (pt-br);
- InfoMoney sobre MVP;
- Zendesk sobre MVP;
- Wikipedia sobre MVP;
- Atlassian sobre MVP;
- Gartner Glossary sobre MVP;
- Mailchimp sobre MVP;
Autor: Leonardo Pangaio - Data: 2024-11-08
Mirth Connect é uma ferramenta de integração de dados de saúde, especialmente utilizada para troca de mensagens no padrão HL7 (Health Level 7). Criada com foco em interoperabilidade, ela permite que diferentes sistemas de saúde troquem dados de maneira padronizada e segura. O Mirth pode atuar como uma ponte entre diferentes sistemas de informações de saúde (HIS) e prontuários eletrônicos de pacientes (EMR/EHR), simplificando a integração de sistemas heterogêneos.
Através de sua interface gráfica, o Mirth facilita o mapeamento de dados e a criação de rotinas de transformação e roteamento, possibilitando a personalização de fluxos de dados. Além de HL7, ele suporta outros formatos de dados como XML, JSON, e formatos específicos de bancos de dados, o que o torna uma ferramenta flexível em ambientes de saúde.
Autor: Leonardo Pangaio - Data: 2024-11-10
Multi-Factor Authentication (MFA) é uma técnica de autenticação que utiliza múltiplos fatores para verificar a identidade de um usuário. Além da senha, MFA pode exigir um segundo fator, como um código enviado ao telefone, uma impressão digital, ou outra forma de autenticação, aumentando a segurança do acesso.
Autor: Leonardo Pangaio - Data: 2024-11-10
Multiprotocol Label Switching (MPLS) é um método para acelerar e controlar o fluxo de tráfego em redes, especialmente em redes de longa distância (WANs). Ele utiliza rótulos para direcionar o tráfego, permitindo roteamento mais rápido e eficiente sem depender exclusivamente dos endereços IP.
O MPLS opera entre a Camada 2 (Enlace) e Camada 3 (Rede) do modelo OSI, sendo considerado uma tecnologia de camada intermediária que combina elementos de ambas as camadas para otimização de tráfego.
Autor: Leonardo Pangaio - Data: 2024-11-11
My Traceroute (MTR) é uma ferramenta de diagnóstico de rede que combina as funcionalidades dos comandos traceroute e ping, permitindo monitorar a rota e o tempo de resposta de pacotes para um destino específico. É útil para identificar gargalos ou problemas de conexão.
O MTR não se enquadra diretamente no modelo OSI, mas sua função está associada à Camada 3 (Rede), onde o roteamento de pacotes é monitorado.
- Cloudflare sobre MTR;
- Wikipedia sobre MTR;
- Oracle man of MTR;
- RedHat how to use MTR;
- Die man of MTR;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Network File System (NFS) é um protocolo de rede desenvolvido para permitir que sistemas Unix e Linux compartilhem diretórios e arquivos de forma transparente entre computadores. Com o NFS, um sistema pode montar diretórios de outro sistema remoto, permitindo o acesso aos arquivos como se estivessem localmente disponíveis.
O NFS é amplamente utilizado em ambientes de rede Linux, permitindo o compartilhamento eficiente de arquivos em grandes ambientes corporativos e datacenters. A porta padrão varia conforme a versão, mas a porta padrão mais comum é a 2049 (para versões recentes do NFS).
Autor: Leonardo Pangaio - Data: 2024-11-11
Network Mapper (Nmap) é uma ferramenta de código aberto para varredura de redes que permite mapear dispositivos conectados, descobrir serviços e verificar a segurança dos sistemas. Com o Nmap, é possível identificar portas abertas e detectar vulnerabilidades de rede.
O Nmap opera principalmente na Camada 3 (Rede) e Camada 4 (Transporte) do modelo OSI, pois ele verifica portas TCP/UDP para encontrar serviços em execução.
Autor: Leonardo Pangaio - Data: 2024-11-20
O Nexus é um repositório/Registry gerenciador de artefatos utilizado para armazenar e compartilhar bibliotecas, pacotes e imagens Docker. Ele suporta diversos formatos, como Maven, npm, PyPI e Docker, permitindo centralizar dependências em projetos de desenvolvimento.
Muito usado em pipelines CI/CD, o Nexus facilita o versionamento e a rastreabilidade de artefatos em projetos de software.
- Sonatype sobre Nexus Registry;
- Medium sobre Nexus Registry;
- Medium sobre Nexus Registry (2);
- Dev.to sobre Nexus Registry;
- Sonatype sobre Nexus Registry (2);
- 4Linux sobre Nexus Registry;
Autor: Leonardo Pangaio - Data: 2024-11-08
Um Non-Disclosure Agreement (NDA) é um acordo legal entre duas ou mais partes para manter informações confidenciais e proteger dados sensíveis. Ele é comumente utilizado em situações de negócios, como negociações, parcerias e contratos de trabalho, onde uma parte compartilha informações sigilosas com a outra, mas deseja garantir que esses dados não sejam divulgados a terceiros.
Os NDAs ajudam a proteger o know-how, segredos comerciais e outros dados críticos que podem ser prejudiciais se revelados sem autorização.
Autor: Leonardo Pangaio - Data: 2024-11-10
Not Only SQL (NOSQL) refere-se a uma categoria de bancos de dados projetados para lidar com grandes volumes de dados não estruturados ou semi-estruturados e escaláveis horizontalmente. Diferentemente do SQL, os bancos de dados NoSQL não utilizam um esquema de tabelas fixo; eles são flexíveis e permitem que os dados sejam armazenados em estruturas como documentos (MongoDB), grafos (Neo4j), colunas (Cassandra), ou pares chave-valor (Redis). Isso permite que eles lidem com grandes volumes de dados de maneira rápida e eficiente, sem as limitações de uma estrutura rígida.
NoSQL é comumente utilizado em aplicações modernas e sistemas distribuídos, onde a velocidade e a escalabilidade são essenciais. Ele oferece modelos de consistência eventualmente diferentes do ACID, como o modelo BASE (Basically Available, Soft State, Eventually Consistent), que prioriza a disponibilidade e a performance em detrimento da consistência em tempo real.
- MongoDB sobre NoSQL;
- Wikipedia sobre NoSQL;
- IBM sobre NoSQL;
- Google Cloud sobre NoSQL;
- Amazon AWS sobre NoSQL;
- GeeksForGeeks sobre NoSQL;
- Oracle sobre NoSQL;
- Microsoft Azure sobre NoSQL;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Object-Relational Mapping (ORM) é uma técnica que permite a interação entre sistemas orientados a objetos e bancos de dados relacionais. Em vez de escrever consultas SQL manualmente, o ORM permite que os desenvolvedores interajam com o banco de dados por meio de objetos e classes no código, tornando a manipulação de dados mais intuitiva e eficiente.
Ferramentas ORM populares incluem Hibernate (para Java), Entity Framework (para .NET) e SQLAlchemy (para Python).
Autor: Leonardo Pangaio - Data: 2024-11-15
Objectives and Key Results (OKR) é uma metodologia de definição de objetivos e acompanhamento de resultados, muito utilizada para alinhar o foco de times em empresas. Composto de um objetivo claro e metas mensuráveis, o OKR ajuda a equipe a monitorar o progresso e ajustar os esforços para alcançar os resultados.
Empresas de tecnologia e inovação, como Google, utilizam o OKR para alinhar as metas estratégicas de toda a organização.
- Wikipedia sobre OKR;
- Forbes sobre OKR;
- Atlassian sobre OKR;
- Miro sobre OKR;
- Zendesk sobre OKR;
- Microsoft sobre OKR;
Autor: Leonardo Pangaio - Data: 2024-11-06
Modelo OSI (Open Systems Interconnection) é um modelo de referência para redes de computadores que define um conjunto de regras e protocolos para permitir a comunicação entre sistemas diferentes. Desenvolvido pela ISO (International Organization for Standardization), o modelo OSI divide o processo de comunicação em sete camadas, cada uma com funções específicas. A ideia do modelo é tornar mais fácil o entendimento de como os dados são transmitidos e como os protocolos interagem entre si.
A camada física é responsável pela transmissão dos bits brutos de dados através de um meio físico, como cabos ou ondas de rádio. Ela trata da conversão dos dados em sinais elétricos, ópticos ou de rádio e define os aspectos físicos do hardware de rede, como conectores, voltagem e a taxa de transmissão. Exemplos de tecnologias dessa camada incluem Ethernet, USB, e Wi-Fi.
A camada de enlace de dados é responsável pela transferência de dados entre dois dispositivos diretamente conectados e garante a integridade dos dados ao verificar e corrigir erros. Ela lida com o controle de fluxo e a formação de quadros (frames) para enviar pacotes de dados. Exemplos de protocolos dessa camada incluem Ethernet, PPP (Point-to-Point Protocol) e HDLC (High-Level Data Link Control).
A camada de rede gerencia o endereçamento e o roteamento dos dados através de redes diferentes. Ela decide qual caminho os dados devem seguir até o destino, considerando fatores como congestionamento e distância. O principal protocolo dessa camada é o IP (Internet Protocol), mas outros protocolos incluem ICMP (Internet Control Message Protocol) e ARP (Address Resolution Protocol).
A camada de transporte garante que os dados sejam entregues de forma confiável entre os dispositivos de origem e destino. Ela segmenta os dados, controla o fluxo e assegura que os pacotes sejam entregues sem erros e na ordem correta. Protocolos dessa camada incluem o TCP (Transmission Control Protocol), que oferece uma comunicação confiável, e o UDP (User Datagram Protocol), que é mais rápido, mas sem garantias de entrega.
A camada de sessão gerencia a abertura, controle e fechamento das sessões de comunicação entre aplicativos. Ela permite que os dados sejam sincronizados entre dispositivos e controla o fluxo de dados durante a comunicação, garantindo que a troca de dados ocorra sem interferências. Exemplos de protocolos dessa camada incluem NetBIOS e RPC (Remote Procedure Call).
A camada de apresentação é responsável pela formatação e tradução dos dados que serão enviados entre os sistemas. Ela garante que os dados sejam apresentados de forma compreensível para o aplicativo, realizando funções como criptografia, compressão e conversão de formato de dados. Exemplos de protocolos dessa camada incluem SSL/TLS (para criptografia) e JPEG, MPEG (para formatação de mídia).
A camada de aplicação é onde os usuários interagem diretamente com a rede. Ela define os protocolos que os aplicativos utilizam para se comunicar pela rede, como navegadores, e-mails e outros serviços. Exemplos de protocolos dessa camada incluem HTTP (para navegação na web), FTP (para transferência de arquivos), SMTP (para envio de e-mails), e DNS (para resolução de nomes de domínio).
- Wikipedia sobre OSI Model;
- Alura sobre OSI Model;
- CloudFlare sobre OSI Model;
- Amazon AWS sobre OSI Model;
- CISCO sobre OSI Model;
Autor: Leonardo Pangaio - Data: 2024-11-20
O OpenShift é uma plataforma como serviço (PaaS) desenvolvida pela Red Hat que combina Kubernetes com ferramentas adicionais para simplificar o gerenciamento de aplicações em contêineres. Ele oferece integração com CI/CD, segurança aprimorada e suporte empresarial.
Ideal para empresas que buscam uma solução robusta de orquestração, o OpenShift facilita a migração para arquiteturas baseadas em contêineres.
- Site Oficial do RedHat Openshift;
- Wikipedia sobre Openshift;
- RedHat sobre Openshift;
- Dynatrace sobre Openshift;
- RedHat sobre Openshift (Overview);
- Medium sobre Openshift;
- Netapp sobre Openshift;
- Treinaweb sobre Openshift;
- 4Linux sobre Openshift;
- Alura sobre Openshift;
Autor: Leonardo Pangaio - Data: 2024-11-20
O termo Pipeline (Canalização, tradução livre) refere-se a uma sequência de etapas automatizadas para construir, testar, e implantar software. É um conceito central em CI/CD, permitindo que equipes integrem automação em seus fluxos de trabalho.
Os pipelines podem incluir validação de código, execução de testes, e entrega de artefatos, garantindo maior eficiência no ciclo de desenvolvimento.
Também existe o termo chamado Pipeline de Dados (Data Pipeline).
- Código Fonte TV sobre Pipeline;
- Wikipedia sobre Pipeline;
- Wikipedia sobre Pipeline (Software);
- Jenkins sobre Pipeline;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Platform as a Service (PaaS) oferece uma plataforma completa para desenvolvimento, execução e gerenciamento de aplicações na nuvem. Esse modelo permite que desenvolvedores se concentrem no desenvolvimento de código, sem se preocupar com a infraestrutura subjacente, já que o provedor cuida da segurança, armazenamento e rede. PaaS é popular para desenvolver e implantar aplicativos de forma rápida e escalável. Exemplos de PaaS incluem Heroku, Google App Engine e Red Hat OpenShift.
- Microsoft Azure sobre PaaS (pt-br);
- Google Cloud sobre PaaS;
- Microsoft Azure sobre PaaS;
- Wikipedia sobre PaaS;
- RedHat sobre PaaS;
- IBM sobre PaaS;
- Zendesk sobre PaaS;
- Fortinet sobre PaaS;
- HP sobre PaaS;
Autor: Leonardo Pangaio - Data: 2024-11-11
Post Office Protocol (POP) é um protocolo de e-mail usado para baixar mensagens de um servidor para o cliente de e-mail. Uma vez baixadas, as mensagens são removidas do servidor, ao contrário do IMAP, que mantém cópias centralizadas.
O POP opera na Camada 7 (Aplicação) do modelo OSI e utiliza a porta padrão 110 (ou 995 para POP sobre SSL/TLS).
Autor: Leonardo Pangaio - Data: 2024-11-09
O Prontuário Eletrônico do Paciente (PEP) é uma versão digital do prontuário médico tradicional, onde são registradas todas as informações de saúde do paciente, incluindo histórico médico, exames, diagnósticos e tratamentos. O uso do PEP facilita o acesso e compartilhamento das informações médicas entre profissionais de saúde, melhorando a qualidade do atendimento e a continuidade dos cuidados.
O PEP é uma das principais ferramentas para garantir a interoperabilidade entre sistemas de saúde, pois permite que informações sobre o paciente estejam disponíveis em qualquer ponto de atendimento. Ele também pode ser integrado com sistemas como HIS, RIS e LIS, fornecendo um registro abrangente de cada paciente.
Autor: Leonardo Pangaio - Data: 2024-11-20
O Proxmox é uma plataforma de virtualização de código aberto que combina tecnologias como KVM (Kernel Virtualization Machine) e LXC (Linux Container) para criar e gerenciar servidores virtuais e contêineres.
Ideal para ambientes de virtualização e clusters, o Proxmox oferece uma interface web intuitiva e suporte a alta disponibilidade e backup integrado.
- Site Oficial Proxmox;
- Wikipedia sobre Proxmox;
- Medium sobre Proxmox;
- Escola Linux sobre Proxmox;
- Wikipedia sobre Proxmox (pt-br);
- Diolinux sobre Proxmox;
Autor: Leonardo Pangaio - Data: 2024-11-08
RabbitMQ é um sistema de mensageria que permite a comunicação assíncrona entre diferentes componentes de software através de mensagens. Ele utiliza o padrão de fila de mensagens (message queue) e pode atuar como um "broker", intermediando a troca de mensagens entre sistemas, facilitando o desacoplamento das aplicações. RabbitMQ é amplamente utilizado em sistemas que precisam lidar com processamento em tempo real e alta escalabilidade.
RabbitMQ implementa o protocolo Advanced Message Queuing Protocol (AMQP) e oferece recursos como confirmação de entrega, ordenação de mensagens e criação de filas. Ele é particularmente útil em cenários de microservices e comunicação entre sistemas, permitindo um fluxo confiável de dados.
- RabbitMQ official website;
- Wikipedia sobre RabbitMQ;
- Wikipedia sobre RabbitMQ (pt-br);
- FullCycle sobre RabbitMQ;
Autor: Leonardo Pangaio - Data: 2024-11-08
O Radiology Information System (RIS) é um sistema de informações de radiologia utilizado para gerenciar dados e processos de departamentos de radiologia em hospitais e clínicas. Ele organiza o fluxo de trabalho, agendamento de exames, armazenamento de imagens e resultados, facilitando o trabalho de radiologistas e técnicos. O RIS também se integra com sistemas de Picture Archiving and Communication System (PACS) para o armazenamento e recuperação de imagens digitais.
Esses sistemas são essenciais para documentar procedimentos, arquivar imagens médicas e fornecer diagnósticos precisos, especialmente em clínicas e hospitais com alta demanda de exames de imagem. A integração do RIS com outros sistemas de saúde, como HIS e PEP, permite uma visão mais completa do paciente.
Autor: Leonardo Pangaio - Data: 2024-11-11
Remote Desktop Protocol (RDP) é um protocolo desenvolvido pela Microsoft que permite que usuários acessem e controlem computadores remotamente, oferecendo interface gráfica e suporte a múltiplos dispositivos. Ele é amplamente utilizado para suporte técnico e acesso remoto em ambientes corporativos.
O RDP opera na Camada 7 (Aplicação) do modelo OSI e utiliza a porta padrão 3389.
- Cloudflare sobre RDP;
- Wikipedia sobre RDP;
- Microsoft sobre RDP;
- Solarwinds sobre RDP;
- Fortinet sobre RDP;
Autor: Leonardo Pangaio - Data: 2024-11-20
Um Repositório é um local onde o código-fonte, artefatos ou dependências de software são armazenados e versionados. Ele pode ser local ou remoto e é gerenciado por sistemas como Git, SVN, ou ferramentas como GitHub e GitLab.
Além do versionamento, repositórios são essenciais para colaboração, permitindo rastreamento de mudanças e integração com ferramentas de automação.
- Diolinux sobre Repositório;
- Amazon AWS sobre Repositório;
- Wikipedia sobre Repositório;
- GitHub sobre Repositório;
Autor: Leonardo Pangaio - Data: 2024-11-15
Um Request for Proposal (RFP) é um documento emitido por uma empresa para convidar fornecedores a enviarem propostas de soluções para um projeto específico. Ele define os requisitos, escopo e critérios de seleção, sendo utilizado em processos de compras.
O RFP é uma prática comum em projetos de TI, onde a empresa detalha suas necessidades e avalia as propostas para escolher a mais adequada.
Autor: Leonardo Pangaio - Data: 2024-11-15
Rivest-Shamir-Adleman (RSA) é um algoritmo de criptografia assimétrica amplamente utilizado para garantir a segurança dos dados. Ele utiliza um par de chaves – pública e privada – para criptografar e descriptografar informações.
O RSA é utilizado em várias aplicações de segurança, como certificados SSL/TLS e assinaturas digitais, por ser seguro e difícil de ser quebrado.
Autor: Leonardo Pangaio - Data: 2024-11-20
O Rundeck é uma ferramenta de automação de TI para orquestrar tarefas e gerenciar operações, como deploys, backup e manutenção de servidores. Ele permite criar e executar jobs de forma centralizada, com suporte a agendamento e integração com outras ferramentas.
Ideal para equipes de operações, o Rundeck melhora a eficiência ao simplificar tarefas repetitivas e promover automação controlada.
- Linux Tips sobre Rundeck;
- Site Oficial Rundeck;
- Rundeck sobre Rundeck;
- Medium sobre Rundeck;
- 4Linux sobre Rundeck;
- Medium sobre Rundeck (pt-br);
- 4Linux sobre Rundeck (2);
Autor: Leonardo Pangaio - Data: 2024-11-09
SAMBA é uma implementação livre e de código aberto do protocolo SMB/CIFS, permitindo que sistemas Linux e Unix se comuniquem e compartilhem arquivos com máquinas Windows. Usando o SAMBA, servidores Linux podem atuar como um servidor de arquivos ou controlador de domínio, oferecendo recursos como compartilhamento de arquivos, impressoras e autenticação de usuários em redes mistas.
SAMBA é amplamente utilizado em ambientes empresariais para integrar redes baseadas em Linux e Windows, permitindo uma comunicação fluida entre os dois sistemas operacionais.
- Samba official website;
- University of Pennsilvania sobre Samba;
- RedHat sobre Samba;
- Ubuntu sobre Samba;
- Wikipedia sobre Samba;
Autor: Leonardo Pangaio - Data: 2024-11-11
Secure Copy Protocol (SCP) é um protocolo de transferência de arquivos seguro baseado no SSH. Ele permite copiar arquivos entre máquinas de forma criptografada, garantindo segurança e autenticidade dos dados transmitidos.
O SCP opera na Camada 7 (Aplicação) do modelo OSI e utiliza a porta padrão 22 (compartilhada com o SSH).
- Wikipedia sobre SCP;
- Wikipedia sobre SCP (pt-br);
- NordVPN sobre SCP;
- Die SCP man;
- Man page of SCP;
- Oracle SCP man;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Secure File Transfer Protocol (SFTP) é uma versão segura do FTP que utiliza o protocolo SSH para fornecer uma transferência de arquivos criptografada entre cliente e servidor. O SFTP é amplamente utilizado para envio seguro de arquivos, especialmente em ambientes corporativos que exigem conformidade com normas de segurança. Por ser baseado em SSH, o SFTP utiliza a porta 22, oferecendo um nível de segurança superior ao FTP padrão.
Autor: Leonardo Pangaio - Data: 2024-11-06
O Secure Shell (SSH) é um protocolo de rede amplamente utilizado em ambientes Linux e macOS para acesso remoto seguro a servidores e dispositivos. Ele permite a execução de comandos e a transferência de arquivos com segurança, protegendo os dados por meio de criptografia. O SSH opera, por padrão, na porta 22 e oferece diferentes métodos de autenticação, incluindo o uso de credenciais (usuário e senha) e chaves criptográficas, que fornecem uma camada adicional de segurança. Em ambientes corporativos e de desenvolvimento, o SSH substitui protocolos mais vulneráveis, como Telnet, garantindo a privacidade e a integridade das operações remotas.
Autor: Leonardo Pangaio - Data: 2024-11-06
O Secure Sockets Layer (SSL) é um protocolo de segurança criado para proteger a comunicação entre servidores e clientes na internet, garantindo que os dados transmitidos permaneçam privados e protegidos contra interceptações. Ele utiliza criptografia para codificar os dados durante a transmissão, assegurando que apenas o servidor e o cliente possam entender o conteúdo. O SSL passou por diversas atualizações para melhorar a segurança, até que foi gradualmente substituído pelo TLS, devido a vulnerabilidades encontradas nas versões anteriores. Mesmo assim, o termo “SSL” ainda é amplamente usado para se referir às camadas de segurança na web.
Autor: Leonardo Pangaio - Data: 2024-11-20
Security and Operations (SecOps) refere-se à integração de práticas de segurança com operações de TI para garantir a proteção contínua de sistemas e dados. Ela promove a colaboração entre equipes de segurança e operações para responder a ameaças e implementar políticas proativas.
SecOps usa ferramentas de monitoramento, detecção de intrusão e automação para melhorar a eficiência na proteção contra ataques e na resolução de incidentes.
- Broadcom sobre SecOps;
- CheckPoint sobre SecOps;
- Fortinet sobre SecOps;
- CyberArk sobre SecOps;
- ServiceNow sobre SecOps;
- XP sobre SecOps;
- Elastic sobre SecOps;
- Microsoft sobre SecOps;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Server Message Block (SMB) é um protocolo de rede utilizado para compartilhar arquivos, impressoras e outros recursos em uma rede. Originalmente desenvolvido para sistemas Windows, o SMB permite que computadores acessem arquivos de forma remota e façam solicitações a servidores e dispositivos em uma rede.
O protocolo SMB funciona na camada de aplicação do modelo OSI e é utilizado por sistemas operacionais como Windows, Linux (via SAMBA) e macOS. A porta padrão 445 (SMB2 e SMB3, utilizado em Windows para compartilhamento de arquivos e impressão).
Autor: Leonardo Pangaio - Data: 2024-11-09
O Simple Mail Transfer Protocol (SMTP) é o protocolo padrão de envio de e-mails, utilizado para a transmissão de mensagens entre servidores de e-mail e entre clientes e servidores. Operando geralmente nas portas 25, 587 e 465 (para conexões criptografadas), o SMTP é um dos protocolos essenciais para o funcionamento da internet e é complementado por POP3 e IMAP para o recebimento de mensagens.
Autor: Leonardo Pangaio - Data: 2024-11-06
O Simple Network Management Protocol (SNMP) é um protocolo utilizado para gerenciar e monitorar dispositivos de rede, como roteadores, switches, servidores e impressoras. Ele opera na Camada de Aplicação (Camada 7) do modelo OSI, que é responsável pela interação com as aplicações de rede. O SNMP permite que administradores de rede coletem informações detalhadas sobre o status dos dispositivos, como a utilização de CPU, memória, temperatura, tráfego de rede, entre outros, e ainda possibilita o controle remoto desses dispositivos.
O SNMP utiliza uma arquitetura cliente-servidor, onde os dispositivos de rede, chamados de "agentes", enviam informações para um "gerente" central que coleta e armazena esses dados. Ele pode ser configurado para enviar alertas ou traps quando há falhas ou problemas na rede, permitindo que os administradores tomem ações corretivas. SNMP é amplamente usado para monitoramento de redes, configuração de dispositivos e solução de problemas em ambientes corporativos, e é essencial para manter a integridade e a performance da infraestrutura de TI.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Sistema de Gerenciamento de Banco de Dados (SGDB) é um software que facilita o gerenciamento, armazenamento, e manipulação de dados em bancos de dados. Ele permite a criação, consulta, atualização e exclusão de dados de maneira eficiente e segura. SGBDs populares incluem MySQL, PostgreSQL, Oracle Database e SQL Server, cada um com características próprias e adequado para diferentes aplicações.
Os SGBDs são fundamentais em praticamente todos os sistemas modernos que dependem de dados, desde aplicações web até sistemas empresariais e de saúde. Eles oferecem funcionalidades como backup, controle de acesso, e otimização de consultas, garantindo a integridade e a segurança dos dados armazenados.
Autor: Leonardo Pangaio - Data: 2024-11-09
O Site Reliability Engineering (SRE) é uma abordagem de engenharia de software dedicada à criação de sistemas resilientes, escaláveis e com alta disponibilidade. Os engenheiros de SRE aplicam princípios de automação e monitoramento para reduzir falhas e manter serviços com tempos de resposta e disponibilidade elevados. O conceito foi inicialmente desenvolvido pelo Google e abrange técnicas de automação, criação de alertas proativos e redução de tarefas manuais para maximizar a eficiência e a confiabilidade de sistemas complexos.
- RedHat sobre SRE;
- Amazon AWS sobre SRE;
- SRE official website;
- Wikipedia sobre SRE;
- IBM sobre SRE;
- Dynatrace sobre SRE;
- Atlassian sobre SRE;
Autor: Leonardo Pangaio - Data: 2024-11-15
Software Development Kit (SDK) é um conjunto de ferramentas que permite aos desenvolvedores criar software para uma plataforma específica. O SDK inclui bibliotecas, exemplos de código, documentação, e ferramentas para facilitar o desenvolvimento.
Os SDKs são fundamentais em várias plataformas, como Android e iOS, permitindo que os desenvolvedores criem aplicações e serviços específicos.
- IBM sobre SDK;
- Wikipedia sobre SDK;
- GeeksForGeeks sobre SDK;
- Amazon AWS sobre SDK;
- RedHat sobre SDK;
- Amazon AWS sobre diferença entre SDK e API;
- Zendesk sobre SDK;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Software as a Service (Saas) é um modelo de computação em nuvem onde o software é hospedado e mantido por um provedor e acessado pelos usuários pela internet, normalmente via navegador ou API. Nesse modelo, os usuários pagam uma assinatura para utilizar a aplicação sem precisar gerenciar infraestrutura ou atualizações. SaaS é popular devido à conveniência de acesso remoto e à capacidade de escalar serviços de acordo com a demanda. Exemplos de SaaS incluem Microsoft 365, Salesforce e Zoom.
- Microsoft Azure sobre SaaS;
- Salesforce sobre SaaS;
- Wikipedia sobre SaaS;
- Amazon AWS sobre SaaS;
- IBM sobre SaaS;
- Cloudflare sobre SaaS;
- Oracla sobre SaaS;
Autor: Leonardo Pangaio - Data: 2024-11-09
O Static Application Security Testing (SAST) é uma abordagem de segurança que envolve a análise do código-fonte de uma aplicação para identificar vulnerabilidades antes que o software seja executado. O SAST pode ser realizado durante a fase de desenvolvimento e é essencial para detectar falhas de segurança precoces, evitando riscos em produção.
Ferramentas SAST populares incluem SonarQube, Checkmarx e Veracode, que ajudam a automatizar a detecção de vulnerabilidades em aplicativos.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Streaming Text Oriented Messaging Protocol (STOMP) é um protocolo de mensagens simples e orientado a texto que permite que diferentes sistemas e aplicações se comuniquem via mensagens. Ele é frequentemente utilizado para comunicação assíncrona em sistemas de mensageria e é suportado por brokers como RabbitMQ e ActiveMQ. STOMP permite a comunicação entre sistemas heterogêneos usando uma interface baseada em texto, o que simplifica sua implementação.
STOMP opera na camada de aplicação do modelo OSI (Camada 7) e é utilizado em sistemas que exigem troca de mensagens em tempo real ou em comunicações baseadas em filas, como em chatbots, monitoramento de sistemas e notificações em tempo real.
Autor: Leonardo Pangaio - Data: 2024-11-10
Structured Query Language (SQL) é uma linguagem de programação padrão para gerenciar e manipular dados em bancos de dados relacionais, onde os dados são organizados em tabelas com linhas e colunas. Criada para permitir a execução de consultas e comandos como SELECT
, INSERT
, UPDATE
e DELETE
, o SQL é amplamente utilizado em sistemas de bancos de dados como MySQL, PostgreSQL, Oracle, e SQL Server. Além de manipulação de dados, o SQL também inclui comandos para definir e controlar o acesso e estrutura dos dados.
Em termos de arquitetura, o SQL é estruturado para transações ACID (Atomicidade, Consistência, Isolamento, Durabilidade), garantindo confiabilidade em operações complexas, especialmente em sistemas financeiros e empresariais. A estrutura do SQL e a conformidade com o modelo relacional ajudam a garantir integridade referencial e a organizar dados em um modelo consistente.
- w3schools sobre SQL;
- Amazon AWS sobre SQL;
- Wikipedia sobre SQL;
- IBM sobre SQL;
- GeeksForGeeks sobre SQL;
Autor: Leonardo Pangaio - Data: 2024-11-10
O Switch Top of Rack (ToR) é um tipo de switch utilizado na parte superior de um rack (estrutura que agrupa servidores e equipamentos de rede em datacenters), oferecendo conexões diretas para os servidores abaixo dele. Ele ajuda a reduzir a quantidade de cabos, já que os servidores de um rack inteiro se conectam diretamente ao ToR, que então se comunica com os switches centrais. Esse modelo melhora a organização e facilita a manutenção e a escalabilidade da infraestrutura de rede em datacenters.
Switches ToR geralmente operam na Camada 2 (Enlace) e/ou Camada 3 (Rede) do modelo OSI, pois muitos suportam roteamento para gerenciar o tráfego de dados. Sua posição estratégica dentro do rack também permite melhor controle de latência e alta velocidade de conexão.
Autor: Leonardo Pangaio - Data: 2024-11-20
O Terraform é uma ferramenta de código aberto para implementar infraestrutura como código (IaC). Ele permite criar, gerenciar e versionar recursos de infraestrutura em provedores de nuvem, como AWS, Azure e GCP, por meio de arquivos de configuração declarativos.
Com o Terraform, equipes podem provisionar recursos de forma previsível e reproduzível, promovendo automação e consistência na infraestrutura.
- Código Fonte TV sobre Terraform;
- Hashicorp sobre Terraform;
- Site Oficial do Terraform;
- IBM sobre Terraform;
- Wikipedia sobre Terraform;
- Hashicorp sobre IaC com Terraform;
- Alura sobre Terraform;
- Coodesh sobre Terraform;
- GoCache sobre Terraform;
- Datacamp sobre Terraform;
Autor: Leonardo Pangaio - Data: 2024-11-10
Time to Live (TTL) é um valor em redes de computadores que indica o tempo máximo de "vida" de um pacote de dados. A cada roteador que um pacote atravessa, o TTL é decrementado em uma unidade, e quando atinge zero, o pacote é descartado, evitando loops infinitos na rede. Esse valor é muito importante para a eficiência da rede, garantindo que pacotes não fiquem circulando indefinidamente e ocupando largura de banda.
O TTL é uma característica presente na Camada 3 (Rede) do modelo OSI, onde é aplicado em protocolos como o IP (Internet Protocol). No caso de protocolos de rede como o DNS, o TTL também é usado para definir o tempo que um registro pode ser mantido em cache, otimizando o acesso a informações.
Autor: Leonardo Pangaio - Data: 2024-11-15
Tom's Obvious, Minimal Language (TOML) é um formato de arquivo de configuração simples e legível, criado para facilitar a organização de dados de configuração em aplicações. TOML utiliza uma estrutura de chave-valor intuitiva, similar ao JSON e YAML.
TOML é comumente utilizado em projetos Python e outras linguagens, por ser fácil de ler e editar, além de ter uma sintaxe clara e minimalista.
Autor: Leonardo Pangaio - Data: 2024-11-06
O Transmission Control Protocol (TCP) é um protocolo orientado à conexão utilizado para garantir a entrega confiável de dados entre os sistemas. Ele pertence à Camada de Transporte (Camada 4) do modelo OSI. O TCP estabelece uma conexão entre o cliente e o servidor antes de iniciar a transmissão de dados, utilizando um processo de "handshake" de três vias para garantir que a comunicação seja estável e segura. Essa camada é responsável por segmentar os dados, garantir a entrega correta e ordenar as mensagens, caso cheguem fora de sequência.
O protocolo TCP é amplamente utilizado em aplicações que exigem alta confiabilidade, como navegação na web (HTTP/HTTPS), transferência de arquivos (FTP) e e-mails. Além disso, ele oferece controle de fluxo e de congestionamento, o que ajuda a regular a taxa de transmissão, evitando sobrecargas na rede. A camada de transporte, onde o TCP opera, é essencial para garantir a integridade e a confiabilidade na comunicação de dados entre sistemas.
Autor: Leonardo Pangaio - Data: 2024-11-06
O Transport Layer Security (TLS) é a evolução do SSL e o protocolo atualmente recomendado para proteger a transmissão de dados pela internet. Ele oferece melhorias em termos de velocidade e segurança em comparação com o SSL, usando criptografia avançada para garantir a privacidade e a integridade dos dados trocados. TLS é amplamente utilizado em sites, emails e outros serviços online que exigem confidencialidade. Uma das características fundamentais do TLS é a autenticação mútua, que permite confirmar a identidade tanto do cliente quanto do servidor, sendo essencial para uma comunicação segura.
- Wikipedia sobre TLS;
- Wikipedia sobre TLS (pt-br);
- CloudFlare sobre TLS;
- Amazon AWS sobre the difference between SSL and TLS;
Autor: Leonardo Pangaio - Data: 2024-11-11
Unified Modeling Language (UML) é uma linguagem de modelagem que oferece uma maneira padronizada de visualizar o design de um sistema. Ela é amplamente utilizada na engenharia de software para representar sistemas complexos por meio de diagramas. A UML ajuda desenvolvedores a entender, documentar e comunicar a estrutura, o comportamento e a arquitetura de um sistema antes de sua implementação.
Com diversos tipos de diagramas, como de classes, sequência, caso de uso e atividades, a UML facilita a criação de modelos visuais que ajudam no planejamento e na gestão de projetos, promovendo uma linguagem comum entre profissionais de TI.
- Wikipedia sobre UML;
- Lucidchart sobre UML;
- GeeksForGeeks sobre UML;
- UML official website;
- Miro sobre UML;
- IBM sobre UML;
- Indeed sobre UML;
Autor: Leonardo Pangaio - Data: 2024-11-10
Uniform Resource Identifier (URI) é um identificador padrão utilizado para nomear recursos de forma única e acessível em redes de computadores, especialmente na web. Uma URI pode indicar a localização de um recurso (como um site), uma abstração ou uma entidade física. A URI possui dois tipos principais: URLs e URNs. A URL (Uniform Resource Locator) é um tipo de URI que especifica como acessar um recurso, enquanto a URN (Uniform Resource Name) identifica o recurso de forma única.
Por exemplo, a URI http://example.com/page
indica tanto o protocolo quanto a localização de um recurso específico na web. A URI é essencial para a padronização e acesso aos recursos distribuídos em redes.
- Hostinger sobre the difference between URI and URL (pt-br);
- Wikipedia sobre URI;
- MDN sobre URI;
- Wikipedia sobre URI (pt-br);
- Hostinger sobre the difference between URI and URL;
Autor: Leonardo Pangaio - Data: 2024-11-10
Uniform Resource Locator (URL) é um tipo de URI que especifica o local exato de um recurso em uma rede e como acessá-lo, geralmente na internet. A URL inclui o esquema de acesso (como http
ou https
), o nome do host e, opcionalmente, o caminho para o recurso e parâmetros de consulta.
Por exemplo, na URL https://example.com/path?query=123
, https
indica o protocolo, example.com
o domínio, e /path?query=123
o caminho para o recurso específico. As URLs são componentes fundamentais para navegação e recursos web, permitindo acesso a páginas e arquivos em servidores.
Autor: Leonardo Pangaio - Data: 2024-11-06
O User Datagram Protocol (UDP), por sua vez, também opera na Camada de Transporte (Camada 4) do modelo OSI, mas de uma maneira diferente do TCP. Ao contrário do TCP, o UDP é um protocolo não orientado à conexão, o que significa que ele envia dados sem verificar se o destinatário recebeu corretamente ou se houve falhas na transmissão. Ele é ideal para situações que exigem rapidez e onde a perda de alguns pacotes de dados não compromete a aplicação, como em transmissões de vídeo ao vivo, chamadas VoIP ou jogos online.
Apesar de sua falta de confiabilidade, o UDP é mais rápido do que o TCP, pois não realiza o processo de handshake nem o controle de fluxo. A Camada de Transporte, onde o UDP está posicionado, é responsável por gerenciar a comunicação entre sistemas de forma eficiente, e o UDP é uma escolha comum quando o desempenho em tempo real é mais importante que a precisão na entrega dos dados.
Autor: Leonardo Pangaio - Data: 2024-11-08
O Vendor Neutral Archive (VNA) é um sistema de armazenamento de imagens médicas que permite a captura, armazenamento, gerenciamento e acesso a imagens, independentemente do fornecedor da tecnologia de imagem utilizada. A principal vantagem do VNA é a neutralidade, ou seja, ele não depende de um fabricante específico e pode ser integrado com diferentes sistemas, como PACS (Picture Archiving and Communication System), garantindo a interoperabilidade.
Em ambientes de saúde, o VNA facilita o armazenamento centralizado de imagens médicas, como radiografias, tomografias e ressonâncias magnéticas, além de permitir a visualização de imagens em qualquer estação de trabalho sem depender de um software proprietário.
Autor: Leonardo Pangaio - Data: 2024-11-10
Virtual Local Area Network (VLAN) é uma técnica de segmentação de rede que permite dividir uma rede física em várias redes lógicas. Com VLANs, é possível segmentar a rede de acordo com necessidades de segurança, eficiência e organização, isolando grupos de dispositivos ou departamentos sem precisar de redes físicas separadas.
VLANs operam na Camada 2 (Enlace) do modelo OSI e são configuradas em switches de rede. Essa segmentação também melhora a performance da rede e facilita o gerenciamento e a aplicação de políticas de segurança.
- Solarwinds sobre VLAN;
- Wikipedia sobre VLAN;
- Huawei sobre VLAN;
- GeeksForGeeks sobre VLAN;
- CBTNuggets sobre VLAN;
Autor: Leonardo Pangaio - Data: 2024-11-10
Virtual Network Computing (VNC) é um protocolo de compartilhamento de área de trabalho que permite a usuários visualizar e interagir com um desktop remoto através da rede. Ele funciona transmitindo eventos de teclado e mouse para o sistema remoto e mostrando a tela do dispositivo remoto na máquina do usuário.
O VNC opera principalmente na Camada 7 (Aplicação) do modelo OSI, utilizando a porta padrão 5900 para comunicação. É amplamente usado para suporte técnico e acesso remoto a computadores, especialmente em ambientes corporativos e educacionais.
Autor: Leonardo Pangaio - Data: 2024-11-10
Virtual Private Network (VPN) é uma tecnologia que permite criar uma conexão segura e privada entre um dispositivo e a internet através de um túnel encriptado. Com VPN, usuários podem acessar redes remotas com segurança, ideal para colaboradores que precisam acessar recursos corporativos de fora do ambiente físico da empresa.
A VPN atua principalmente na Camada 3 (Rede) do modelo OSI e utiliza protocolos de tunelamento, como L2TP, PPTP ou IPsec. Além de segurança, ela oferece privacidade ao mascarar o endereço IP do usuário, tornando-se útil também para acessar conteúdos restritos geograficamente.
- Kaspersky sobre VPN;
- Wikipedia sobre VPN;
- Microsoft Azure sobre VPN;
- CISCO sobre VPN;
- NordVPN sobre VPN;
- Amazon AWS sobre VPN;
- Fortinet sobre VPN;
- CNET sobre VPN;
- GeeksForGeeks sobre VPN;
Autor: Leonardo Pangaio - Data: 2024-11-10
Visual Basic Script (VBScript) é uma linguagem de script baseada no Visual Basic, projetada para automação em sistemas Windows e em navegadores que suportam scripts. É amplamente utilizada em scripts administrativos e, anteriormente, em páginas da web para criar funcionalidades interativas, embora hoje tenha sido em grande parte substituída pelo JavaScript.
No contexto de automação, o VBScript permite que administradores de sistemas Windows realizem tarefas repetitivas, como gerenciamento de arquivos e configurações de rede, diretamente a partir do prompt de comando ou de scripts executáveis.
Autor: Leonardo Pangaio - Data: 2024-11-10
Visual Basic for Applications (VBA) é uma linguagem de programação desenvolvida pela Microsoft para automatizar tarefas e estender as funcionalidades de aplicativos do Microsoft Office, como Excel, Word e Access. Com o VBA, os usuários podem criar macros que automatizam processos repetitivos, além de desenvolver funcionalidades personalizadas.
Muito utilizado por profissionais de negócios e analistas de dados, o VBA permite manipulação de dados, criação de relatórios automatizados e construção de soluções personalizadas, aumentando a produtividade em ambientes corporativos.
Autor: Leonardo Pangaio - Data: 2024-11-10
Wide Area Network (WAN) é uma rede que cobre grandes áreas geográficas, conectando redes locais (LANs) através de longas distâncias. A internet é o exemplo mais conhecido de uma WAN. Essas redes permitem a comunicação entre dispositivos e usuários localizados em diferentes regiões, permitindo a integração de empresas globais.
Com a utilização de várias tecnologias, incluindo roteamento e links de dados dedicados, a WAN opera em várias camadas do modelo OSI, mas sua função principal está na Camada 3 (Rede), pois envolve roteamento e conexão de redes distantes.
- Amazon AWS sobre WAN;
- CISCO sobre WAN;
- Wikipedia sobre WAN;
- Cloudflare sobre WAN;
- CompTIA sobre WAN;
- Fortinet sobre WAN;
- HP sobre WAN;
Autor: Leonardo Pangaio - Data: 2024-11-10
YAML Ain't Markup Language (YAML) é uma linguagem de serialização de dados legível por humanos, usada para configurações e troca de informações entre sistemas. Com uma sintaxe simples e intuitiva, YAML é popular em arquivos de configuração para automação e infraestrutura como código (IAC), como no Kubernetes e Ansible.
Por sua simplicidade e suporte a listas e mapeamentos, YAML facilita o gerenciamento de configurações complexas, sendo uma alternativa a XML e JSON em aplicações onde a clareza e a facilidade de edição são prioridades.
Autor: Leonardo Pangaio - Data: 2024-11-10
eXtensible Markup Language (XML) é uma linguagem de marcação que organiza dados de maneira hierárquica e legível por humanos e máquinas. É amplamente utilizada para armazenamento, troca e serialização de dados, especialmente em aplicações web e bancos de dados. XML permite definir elementos personalizados e criar estruturas de dados flexíveis.
XML é frequentemente usado em sistemas de configuração, protocolos de mensagens (como SOAP) e arquivos de dados, promovendo interoperabilidade entre sistemas e permitindo uma estrutura padronizada para dados.