fbpx
Sigmoidal
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
Sem Resultado
Ver Todos Resultados
  • English
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
Sem Resultado
Ver Todos Resultados
Sigmoidal
Sem Resultado
Ver Todos Resultados

O Que é Amostragem e Quantização no Processamento de Imagens

Carlos Melo por Carlos Melo
junho 20, 2025
em Artigos, Blog, Teoria, Visão Computacional
0
19
COMPARTILHAMENTOS
645
VIEWS
Publicar no LinkedInCompartilhar no FacebookCompartilhar no Whatsapp

Você já parou para pensar no que acontece entre o momento em que a luz entra pela lente de uma câmera, é projetada no ponto focal, atravessa o filtro de Bayer, atinge o sensor… e então aquela onda eletromagnética se transforma em um array de números que representa a imagem capturada?

Como uma onda contínua do mundo real pode ser transformar em uma matriz com valores entre 0 e 255?

Neste artigo, eu vou te mostrar o princípio básico por trás da formação de imagens digitais. Vamos entender como uma imagem digital pode ser formada através de dois processos fundamentais: amostragem e quantização.

O código-fonte completo com os exemplos em Python está disponível logo abaixo. E se você quiser se aprofundar mais em Visão Computacional, clique aqui para conhecer a Pós-Graduação da Sigmoidal.

Baixar o Código Gratuitamente

Para acompanhar este tutorial, faça o download do código clicando no botão abaixo.

Amostragem e Quantização

Assim como para Aristóteles o movimento é a passagem da potência ao ato, a criação de uma imagem digital representa a atualização de um potencial visual contínuo (capturado pela luz) em um conjunto finito de dados discretos, por meio da amostragem e da quantização.

O Que é Amostragem e Quantização no Processamento de Imagens

Imagine uma fotografia como uma pintura infinita, onde cada ponto no plano da imagem tem uma intensidade de luz. Essa intensidade é descrita por uma função contínua definida como:

    \[f: \mathbb{R}^2 \rightarrow \mathbb{R},\]

onde f(x, y) representa o nível de cinza (ou brilho) no ponto (x, y). No mundo real, x e y podem assumir qualquer valor real, mas um computador precisa de uma representação finita: uma grade de pontos discretos.

Amostragem: Discretização da imagem no domínio espacial (x, y)

A amostragem espacial é o processo de selecionar valores dessa função em uma malha regular, definida por intervalos \Delta x e \Delta y. O resultado é uma matriz M = (m_{ij}) de dimensões W \times H, onde W é a largura e H é a altura em pixels. Cada elemento da matriz é dado por:

    \[m_{ij} = f(x_0 + i \cdot \Delta x, y_0 + j \cdot \Delta y)\]

Pense nisso como colocar uma tela quadriculada sobre a pintura: cada quadrado (pixel) captura o valor médio de f naquele ponto.

A resolução espacial depende da densidade dessa grade, medida em pixels por unidade de distância (como DPI, ou pontos por polegada). Menores valores de \Delta x e \Delta y significam mais pixels, capturando detalhes mais finos, como os contornos de uma folha em uma fotografia.

    \[\text{Imagem contínua: } f(x, y) \quad \rightarrow \quad \text{Imagem digital: } \begin{bmatrix} m_{00} & m_{01} & \cdots & m_{0, W-1} \\ m_{10} & m_{11} & \cdots & m_{1, W-1} \\ \vdots & \vdots & \ddots & \vdots \\ m_{H-1, 0} & m_{H-1, 1} & \cdots & m_{H-1, W-1} \end{bmatrix}.\]

Por exemplo, uma imagem Full HD (1920 \times 1080 pixels) tem maior resolução espacial do que uma imagem VGA (640 \times 480 pixels), assumindo a mesma área física. A amostragem espacial pode ser visualizada como a transformação de uma função contínua em uma matriz discreta, como mostrado acima.

Quantização: Discretização dos níveis de intensidade

Com a grade de pontos definida, o próximo passo é discretizar os valores de intensidade. No mundo real, esses valores são contínuos, mas um computador exige um número finito de níveis. Esse processo, chamado quantização de intensidade, é realizado por uma função de quantização:

    \[q: \mathbb{R} \rightarrow \{0, 1, \ldots, L-1\},\]

onde L é o número de níveis de intensidade. Para imagens em escala de cinza, é comum usar 1 byte (8 bits) por pixel, resultando em L = 2^8 = 256 níveis, com 0 representando preto e 255 representando branco.

Imagine a intensidade como a altura de uma onda em cada pixel. A quantização é como medir essa altura com uma régua que tem apenas L marcações. A função q mapeia cada valor real para o nível discreto mais próximo, criando uma representação em forma de escada. Assim, o valor do pixel na posição (i, j) é:

    \[m_{ij} = q(f(x_0 + i \cdot \Delta x, y_0 + j \cdot \Delta y)).\]

Resolução de Intensidade

A resolução de intensidade, determinada por L, afeta a qualidade visual. Com L = 256 (8 bits), as transições de brilho são suaves, ideais para fotos comuns. Porém, com L = 16 (4 bits), surgem artefatos como o efeito de “banding”, onde faixas de cor ficam visíveis.

Em aplicações médicas, como tomografias, usam-se 10 a 12 bits (L = 1024 ou 4096) para maior fidelidade.

Para processamento numérico, os valores podem ser normalizados para o intervalo [0, 1] por uma transformação afim f \leftarrow a f + b, e requantizados para armazenamento.

Estrutura Discreta e Implicações Computacionais

A amostragem espacial e a quantização de intensidade convertem uma imagem contínua em uma matriz de inteiros, onde cada m_{ij} representa a intensidade de um pixel.

Essa estrutura discreta é a base do processamento digital e impõe limitações práticas. O espaço necessário para armazenar uma imagem é dado por:

    \[b = W \cdot H \cdot k, \quad \text{com } k = \log_2(L).\]

Ou seja, para uma imagem Full HD (1920 \times 1080) com L = 256 (k = 8 bits), temos:

    \[b = 1920 \cdot 1080 \cdot 8 = 16.588.800 \text{ bits} \approx 2 \text{ MB}.\]

Isso justifica o uso de compressão (como JPEG), que reduz o tamanho final explorando padrões redundantes sem grande perda visual.

Tanto a resolução espacial (W \times H) quanto a intensidade (L) afetam algoritmos de visão computacional. Mais pixels aumentam o nível de detalhe e o custo computacional; mais bits por pixel melhoram a precisão, mas exigem mais memória.

Amostragem e Quantização na prática com Python

Agora, vamos explorar dois exemplos práticos para entender como sinais contínuos são transformados em representações digitais. Primeiro, simularemos um sinal unidimensional (1D), como o som de um instrumento musical. Em seguida, aplicaremos os mesmos conceitos a uma imagem real em tons de cinza.

Exemplo 1: Amostragem e Quantização de um Sinal 1D

Imagine que você está gravando o som de um violão. A vibração das cordas cria uma onda sonora contínua, mas para transformá-la em um arquivo digital, precisamos amostrar no tempo e quantizar a amplitude.

Vamos simular isso com um sinal sintético – uma combinação de senoides que mimetiza variações complexas, como uma nota musical. Dividiremos este exemplo em três partes: geração do sinal, amostragem e quantização.

Parte 1: Gerando o Sinal Contínuo

Primeiro, criamos um sinal analógico combinando três senoides com frequências diferentes. Isso simula um sinal complexo, como uma onda sonora ou um padrão de luz.

# Importando bibliotecas necessárias
import numpy as np
import matplotlib.pyplot as plt

# Gerando um sinal contínuo (combinação de senoides)
x = np.linspace(0, 4*np.pi, 1000)
y = np.sin(x) + 0.3 * np.sin(3*x) + 0.2 * np.cos(7*x)

O que está acontecendo aqui?

  • Usamos np.linspace para criar 1000 pontos entre 0 e 4\pi, “simulando” o domínio contínuo (como o tempo).
  • O sinal y é uma soma de senoides (\sin(x) + 0{.}3\sin(3x) + 0{.}2\cos(7x)), criando variações suaves e abruptas, como em um sinal real.
  • O gráfico mostra a onda contínua, que é o que um sensor (como um microfone) captaria antes da digitalização.

Parte 2: Amostragem do Sinal

Agora, amostramos o sinal em intervalos regulares, simulando o que um sensor faz ao capturar valores em pontos discretos.

# Amostragem: discretização do domínio contínuo
sample_factor = 20
x_sampled = x[::sample_factor]
y_sampled = y[::sample_factor]

O que está acontecendo aqui?

  • O sample_factor = 20 reduz o sinal a 1/20 dos pontos originais, pegando 1 ponto a cada 20.
  • x[::sample_factor] e y[::sample_factor] selecionam pontos espaçados regularmente, simulando a amostragem espacial ou temporal.
  • O gráfico mostra as amostras (pontos vermelhos) sobre o sinal contínuo, destacando a discretização do domínio.

Parte 3: Quantização do Sinal Amostrado

Finalmente, quantizamos os valores amostrados, limitando a amplitude a 8 níveis discretos, como um conversor analógico-digital faria.

# Quantização: redução da resolução em amplitude
num_levels = 8
y_min, y_max = y.min(), y.max()
step = (y_max - y_min) / num_levels
y_quantized = np.floor((y_sampled - y_min) / step) * step + y_min

# Plotando o sinal com amostragem e quantização
plt.figure(figsize=(10, 4))
plt.plot(x, y, label='Sinal Contínuo', alpha=0.75, color='blue')
markerline, stemlines, baseline = plt.stem(x_sampled, y_sampled,
                                          linefmt='r-', markerfmt='ro', basefmt=' ',
                                          label='Amostras')
plt.setp(markerline, alpha=0.2)
plt.setp(stemlines, alpha=0.2)

# Linhas horizontais de quantização
for i in range(num_levels + 1):
    y_line = y_min + i * step
    plt.axhline(y_line, color='gray', linestyle='--', linewidth=0.5, alpha=0.6)

# Linhas verticais de amostragem
for x_tick in x_sampled:
    plt.axvline(x_tick, color='gray', linestyle='--', linewidth=0.5, alpha=0.6)

# Casas de quantização com preenchimento
delta_x = (x[1] - x[0]) * sample_factor
for xi, yi in zip(x_sampled, y_quantized):
    plt.gca().add_patch(plt.Rectangle(
        (xi - delta_x / 2, yi),
        width=delta_x,
        height=step,
        edgecolor='black',
        facecolor='lightgreen',
        linewidth=1.5,
        alpha=0.85
    ))

# Pontos quantizados
plt.scatter(x_sampled, y_quantized, color='green', label='Quantizado')
plt.title("Sinal Amostrado e Quantizado (8 Níveis)")
plt.xlabel("Tempo")
plt.ylabel("Amplitude")
plt.legend()
plt.grid(False)
plt.tight_layout()
plt.show()

O que está acontecendo aqui?

  • Calculamos o intervalo de quantização (step) dividindo a amplitude total (y_max - y_min) por num_levels = 8.
  • A função np.floor mapeia cada valor amostrado para o nível quantizado mais próximo.
  • Retângulos verdes destacam as “caixas” de quantização, mostrando como valores contínuos são aproximados por níveis discretos.
  • O gráfico final combina o sinal contínuo, as amostras e os valores quantizados, ilustrando a perda de fidelidade.

Dica prática: Tente mudar sample_factor para 10 (mais amostras) ou num_levels para 4 (menos níveis) e observe como o sinal fica mais ou menos fiel ao original.

Exemplo 2: Amostragem e Quantização de uma Imagem Real

Agora, vamos aplicar amostragem e quantização a uma imagem real, como uma foto que você tiraria com seu celular. Aqui, a amostragem espacial define a resolução (quantidade de pixels), e a quantização de intensidade determina os tons de cinza.

Parte 1: Carregando a Imagem em Tons de Cinza

Primeiro, carregamos uma imagem e a convertemos para tons de cinza, transformando-a em uma matriz NumPy.

# Importando bibliotecas necessárias
import numpy as np
import matplotlib.pyplot as plt
from PIL import Image
from pathlib import Path

# Caminho base para imagens
NOTEBOOK_DIR = Path.cwd()
IMAGE_DIR = NOTEBOOK_DIR.parent / "images"

# Carregando imagem em tons de cinza
img = Image.open(IMAGE_DIR / 'hexapod.jpg').convert('L')
img_np = np.array(img)

# Exibindo imagem original
plt.figure(figsize=(6, 4))
plt.imshow(img_np, cmap='gray')
plt.title("Imagem Original em Tons de Cinza")
plt.axis('off')
plt.show()

 

Foto minha com o hexapod, utilizada para demonstrar os conceitos de amostragem e quantização em imagens digitais.

O que está acontecendo aqui?

  • Usamos PIL.Image.open para carregar a imagem hexapod.jpg e .convert('L') para transformá-la em tons de cinza (valores de 0 a 255).
  • Convertemos a imagem em uma matriz NumPy (img_np) para manipulação numérica.
  • O gráfico mostra a imagem original, que representa uma cena contínua antes da manipulação.

Parte 2: Amostragem Espacial da Imagem

Reduzimos a resolução da imagem, simulando uma câmera com menos pixels.

# Amostragem espacial com fator 4
sampling_factor = 4
img_sampled = img_np[::sampling_factor, ::sampling_factor]

# Exibindo imagem amostrada
plt.figure(figsize=(6, 4))
plt.imshow(img_sampled, cmap='gray', interpolation='nearest')
plt.title("Imagem com Amostragem Espacial (fator 4)")
plt.axis('off')
plt.show()

O que está acontecendo aqui?

  • O sampling_factor = 4 reduz a resolução, pegando 1 pixel a cada 4 em ambas as dimensões (largura e altura).
  • img_np[::sampling_factor, ::sampling_factor] seleciona uma submatriz, diminuindo o número de pixels.
  • O resultado é uma imagem mais “pixelada”, com menos detalhes, como se fosse capturada por uma câmera de baixa resolução.

Parte 3: Quantização de Intensidade da Imagem

Agora, quantizamos os valores da imagem amostrada, reduzindo os tons de cinza para 8 e depois para 2 níveis.

# Função de quantização uniforme
def quantize_image(image, levels):
    image_min = image.min()
    image_max = image.max()
    step = (image_max - image_min) / levels
    return np.floor((image - image_min) / step) * step + image_min

# Quantizando a imagem amostrada (8 níveis)
quantization_levels = 8
img_quantized_8 = quantize_image(img_sampled, quantization_levels)

# Exibindo imagem amostrada e quantizada (8 níveis)
plt.figure(figsize=(6, 4))
plt.imshow(img_quantized_8, cmap='gray', interpolation='nearest')
plt.title("Imagem Amostrada + Quantizada (8 Níveis)")
plt.axis('off')
plt.show()

# Quantizando a imagem amostrada (2 níveis)
quantization_levels = 2
img_quantized_2 = quantize_image(img_sampled, quantization_levels)

# Exibindo imagem amostrada e quantizada (2 níveis)
plt.figure(figsize=(6, 4))
plt.imshow(img_quantized_2, cmap='gray', interpolation='nearest')
plt.title("Imagem Amostrada + Quantizada (2 Níveis)")
plt.axis('off')
plt.show()

O que está acontecendo aqui?

  • A função quantize_image mapeia os valores de intensidade para levels discretos, calculando o intervalo (step) e arredondando com np.floor.
  • Com 8 níveis, a imagem mantém alguma fidelidade, mas perde transições suaves de tons.
  • Com 2 níveis, a imagem vira binária (preto e branco), mostrando o efeito extremo da quantização.
  • Os gráficos mostram como a redução de níveis cria artefatos visuais, como o “banding”.

Dica prática: Experimente mudar sampling_factor para 8 ou quantization_levels para 16 e veja como a imagem ganha ou perde qualidade.

Takeaways

  • Amostragem espacial transforma uma imagem contínua em uma matriz de pixels, definida por uma grade de intervalos \Delta x e \Delta y. A densidade dessa grade (resolução espacial) determina a quantidade de detalhes capturados.
  • Quantização de intensidade reduz os valores contínuos de brilho para um conjunto finito de níveis (L). Menor L (como 2 ou 8 níveis) causa perda de detalhes, mas pode ser útil em aplicações específicas, como binarização.
  • A combinação de amostragem e quantização define a estrutura de uma imagem digital, impactando diretamente o tamanho do arquivo (b = W \cdot H \cdot \log_2(L)) e o desempenho de algoritmos de visão computacional.
  • Em aplicações práticas, como câmeras digitais ou imagens médicas, o equilíbrio entre resolução espacial e de intensidade é crucial para otimizar qualidade e eficiência computacional.
  • Os exemplos em Python ilustram como amostragem e quantização alteram visualmente uma imagem, desde a preservação de detalhes com 8 níveis até a simplificação extrema com 2 níveis.
Compartilhar1Compartilhar8Enviar
Post Anterior

DeepSeek: Vazamento de dados expõe dados de usuários

Próximo Post

Green Card aprovado por habilidades extraordinárias em Data Science

Carlos Melo

Carlos Melo

Engenheiro de Visão Computacional graduado em Ciências Aeronáuticas pela Academia da Força Aérea (AFA) e Mestre em Engenharia Aeroespacial pelo Instituto Tecnológico de Aeronáutica (ITA).

Relacionado Artigos

Por que o ChatGPT mente para você?
Artigos

Por que o ChatGPT mente para você?

por Carlos Melo
setembro 16, 2025
Green Card aprovado por habilidades extraordinárias em Data Science
Blog

Green Card aprovado por habilidades extraordinárias em Data Science

por Carlos Melo
julho 14, 2025
Curso de Pós-Graduação em Data Science
Data Science

Vale a pena fazer uma Pós-Graduação em Data Science?

por Carlos Melo
janeiro 20, 2025
Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”
Livros

Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”

janeiro 18, 2025
Carlos Melo e Sérgio Sacani – Ciência Sem Fim
Youtube

Carlos Melo e Sérgio Sacani – Ciência Sem Fim

por Carlos Melo
janeiro 16, 2025
Próximo Post
Green Card aprovado por habilidades extraordinárias em Data Science

Green Card aprovado por habilidades extraordinárias em Data Science

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pós-Graduação em Data Science Pós-Graduação em Data Science Pós-Graduação em Data Science

Mais Populares

  • Introdução ao MediaPipe e Pose Estimation

    Introdução ao MediaPipe e Pose Estimation

    512 compartilhamentos
    Compartilhar 205 Tweet 128
  • Por que o ChatGPT mente para você?

    9 compartilhamentos
    Compartilhar 4 Tweet 2
  • ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

    425 compartilhamentos
    Compartilhar 170 Tweet 106
  • Geometria da Formação de Imagens: Matrizes, Transformações e Sistemas de Coordenadas

    398 compartilhamentos
    Compartilhar 159 Tweet 100
  • Processamento de Nuvens de Pontos com Open3D e Python

    56 compartilhamentos
    Compartilhar 22 Tweet 14
  • Em Alta
  • Comentários
  • Mais Recente
Como Tratar Dados Ausentes com Pandas

Como Tratar Dados Ausentes com Pandas

agosto 13, 2019
Como usar o DALL-E 2 para gerar imagens a partir de textos

Como usar o DALL-E 2 para gerar imagens a partir de textos

dezembro 25, 2022
Introdução ao MediaPipe e Pose Estimation

Introdução ao MediaPipe e Pose Estimation

julho 15, 2023

ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

abril 10, 2023
Como Analisar Ações da Bolsa com Python

Como Analisar Ações da Bolsa com Python

15
Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

13
Como Aprender Data Science?

Como Aprender Data Science?

9
Qual o Cenário de Data Science no Brasil hoje?

Qual o Cenário de Data Science no Brasil hoje?

8
Por que o ChatGPT mente para você?

Por que o ChatGPT mente para você?

setembro 16, 2025
Green Card aprovado por habilidades extraordinárias em Data Science

Green Card aprovado por habilidades extraordinárias em Data Science

julho 14, 2025
O Que é Amostragem e Quantização no Processamento de Imagens

O Que é Amostragem e Quantização no Processamento de Imagens

junho 20, 2025
DeepSeek vazamento de dados de usuários

DeepSeek: Vazamento de dados expõe dados de usuários

fevereiro 1, 2025

Seguir

  • 🚀 PROJETO COMPLETO DE DATA SCIENCE (AO VIVO)!

Neste domingo, às 21h, você vai aprender como construir um modelo de precificação de imóveis do zero, usando dados reais e técnicas de Data Science aplicadas ao mercado imobiliário.

Vamos passar pela análise exploratória de dados, entender padrões de preços, criar e validar um modelo de machine learning e discutir como melhorar a acurácia e interpretar os resultados.

💻📊 Uma aula prática e direta para quem quer dominar modelagem preditiva e transformar dados em decisões reais no mercado de imóveis.

>>> LINK NA BIO!

#datascience #cientistadedados #machinelearning
  • 🚀 PYTHON + DATA SCIENCE = Vigilância Aérea em Tempo Real

Treinei uma arquitetura baseada na YOLO (para detecção de objetos) e criei um servidor RTMP com NGINX para conseguir transmitir imagens do DJI Mavic Air 2 e processá-las ao vivo.

Esse projeto é um exemplo de como é possível aprender Data Science na prática!

#datascience #machinelearning #python
  • Até quando você vai continuar estagnado e sem clareza sobre a direção da sua carreira?

A verdade é simples: aprender a programar é a habilidade número um para qualquer profissional hoje, independente da área ou idade.

💻 Saber programar não é exclusividade de quem trabalha em tecnologia.

A pergunta é: você vai continuar no lado de quem espera por soluções prontas e fica preso a tarefas manuais, ou vai migrar para o lado de quem entende a tecnologia e usa programação para crescer, inovar e ganhar vantagem competitiva?

Comece agora. Aprender Python é o primeiro passo para abrir portas que você nem sabia que existiam.

#python #datascience #machinelearning
  • 💰 Você sabe o que faz e quanto ganha um cientista de dados?

Ser Cientista de Dados significa trabalhar com inteligência artificial, estatística e programação para transformar dados em decisões que movimentam negócios e impactam bilhões de pessoas.

É a função que dá vida a recomendações personalizadas, modelos preditivos e sistemas inteligentes que mudam a forma como empresas inovam.

E não é apenas fascinante...

💼💰 É também uma das carreiras mais bem remuneradas da área de tecnologia!

Se você quer uma carreira com futuro, relevância e excelente retorno financeiro, Data Science é o caminho certo!

#cientistadedados #datascience #python
  • Você colocaria fraldas do lado das cervejas no seu supermercado? 🤔

Parece estranho, mas foi exatamente essa descoberta que mudou as vendas do Walmart.

Os cientistas de dados da empresa analisaram milhões de transações com uma técnica de Data Mining que identifica padrões de compra e combinações inesperadas de produtos.

Então, usando algoritmos da Data Science, cruzaram dados de horário, perfil de cliente e itens comprados juntos.

Encontraram algo curioso: homens que passavam no mercado após as 18h para comprar fraldas, muitas vezes no caminho de casa, também compravam cerveja 🍺.

O Walmart testou a hipótese: colocou fraldas perto da seção de cervejas.

O resultado? As vendas de cerveja dispararam. 🚀

Esse é um exemplo clássico de como Data Science gera impacto direto no negócio.

Não é sobre algoritmos complexos apenas; é sobre transformar dados históricos em decisões inteligentes e lucrativas.

#datascience #cientistadedados #machinelearning
  • Conheça as formações da Academia Sigmoidal.

Nossos programas unem rigor acadêmico, prática aplicada e dupla certificação internacional, preparando você para atuar em Data Science, Visão Computacional e Inteligência Artificial com impacto real no mercado.

🤖 Pós-Graduação em Data Science: Forma Cientistas de Dados e Engenheiros de Machine Learning do zero, com Python, estatística e projetos práticos do mundo real.

👁️ Pós-Graduação em Visão Computacional: Especialize-se em processamento de imagens, Deep Learning, redes neurais e navegação autônoma de drones, tornando-se Engenheiro de Visão Computacional ou Engenheiro de Machine Learning.

📊 MBA em Inteligência Artificial: Voltado a profissionais de qualquer área, ensina a aplicar IA estrategicamente em negócios, usando automação, agentes de IA e IA generativa para inovação e competitividade.

Além do título de Especialista reconhecido pelo MEC, você ainda conquista uma Dupla Certificação Internacional com o STAR Research Institute (EUA).

💬 Interessado em dar o próximo passo para liderar no mercado de tecnologia? Me envie uma mensagem e eu te ajudo pessoalmente com a matrícula.

#DataScience #InteligenciaArtificial #VisaoComputacional
  • Treinar um modelo significa encontrar um bom conjunto de parâmetros. Esse conjunto é definido pela função objetivo, também chamada de função de perda. 👀

O gradient descent é o algoritmo que ajusta esses parâmetros passo a passo. Ele calcula a direção de maior inclinação da função de perda e move o modelo para baixo nessa curva. ⬇️

Se o parâmetro é o peso que multiplica X ou o bias que desloca a reta, ambos são atualizados. Cada iteração reduz o erro, aproximando o modelo da solução ótima.

A intuição é simples: sempre que a função de perda é maior, o gradiente aponta o caminho. O algoritmo segue esse caminho até que não haja mais descida possível. 🔄 

#inteligênciaartificial #datascience #machinelearning
  • Qual a melhor linguagem? PYTHON ou R?

Diretamente do túnel do tempo! Resgatei esse vídeo polêmico de 2021, quem lembra??

#DataScience #Python #R #Programação
  • 🎥 Como começar uma CARREIRA como CIENTISTA DE DADOS

Você já pensou em entrar na área que mais cresce e que paga os melhores salários no mundo da tecnologia?

Domingo você vai descobrir o que realmente faz um Cientista de Dados, quais são as habilidades essenciais e o passo a passo para dar os primeiros passos na carreira.

Eu vou te mostrar um mapa para você sair do zero e se preparar para trabalhar com Data Science em 2026.

📅 Domingo, 28 de setembro
🕖 20:00h (horário de Brasília)
🔗 Link nos Stories

Clique no link dos Stories e receba o link da aula ao vivo!

#datascience #machinelearning #cientistadedados
  • VISÃO COMPUTACIONAL está no centro de um dos avanços mais impressionantes da exploração espacial recente: o pouso autônomo da missão Chang’e-5 na Lua. 🚀🌑

Durante a descida, câmeras de alta resolução e sensores a laser capturavam continuamente o relevo lunar, enquanto algoritmos embarcados processavam as imagens em tempo real para identificar crateras e obstáculos que poderiam comprometer a missão.

Esses algoritmos aplicavam técnicas de detecção de bordas e segmentação, aproximando crateras por elipses e cruzando a análise visual com dados de altímetros. Assim, a IA conseguia selecionar regiões planas e seguras para o pouso, ajustando a trajetória da nave de forma autônoma. 

Esse processo foi indispensável, já que a distância entre Terra e Lua gera atraso de comunicação que inviabiliza controle humano direto em tempo real.

Esse caso ilustra como IA embarcada está deixando de ser apenas uma ferramenta de análise pós-missão para se tornar parte crítica das operações espaciais autônomas em tempo real — um passo essencial para missões em Marte, asteroides e no lado oculto da Lua.

(PS: Vi o Sérgio Sacani, do @spacetoday , postando isso primeiro.)

#visaocomputacional #machinelearning #datascience
  • 🔴Aprenda a MATEMÁTICA por Trás do MACHINE LEARNING

Você já se perguntou como as máquinas aprendem?🤖 

A resposta está na matemática que dá vida ao Machine Learning. E neste vídeo, você vai aprender os conceitos fundamentais que sustentam os algoritmos de inteligência artificial, de forma clara e acessível.

Mais do que apenas fórmulas, a ideia é mostrar como cada peça matemática se conecta para transformar dados em aprendizado. Se você deseja compreender a lógica por trás do funcionamento das máquinas, essa aula é um ótimo ponto de partida.

📅 Domingo, 21 de setembro
🕖 20:00h (horário de Brasília)
🔗 Link nos Stories

#machinelearning #datascience #cientistadedados
  • 🚀 As matrículas estão abertas!
Depois de quase 1 ano, a nova turma da Pós-Graduação em Data Science chegou.

NOVIDADE: agora com Dupla Certificação Internacional:
🇧🇷 Diploma de Especialista reconhecido pelo MEC
🇺🇸 Certificado do STAR Research Institute (EUA)

Aprenda Data Science na prática, domine Machine Learning e IA, e conquiste reconhecimento no Brasil e no mundo.

2025 pode ser o ano em que você dá o passo decisivo para se tornar Cientista de Dados.

🔗 Clique no link da bio e reserve sua vaga!
#datascience #cienciadedados #python
  • Por que o CHATGPT MENTE PARA VOCÊ? 🤔

Já percebeu que o ChatGPT às vezes responde com confiança... mas está errado? 

Isso acontece porque, assim como um aluno em prova, ele prefere chutar do que deixar em branco.
Essas respostas convincentes, mas erradas, são chamadas de alucinações.

E o que o pesquisadores da OpenAI sugerem, é que esse tipo de comportamento aparece porque os testes que treinam e avaliam o modelo premiam o chute e punem a incerteza.

Então, da próxima vez que ele ‘inventar’ algo, lembre-se: não é pessoal, ele apenas for treinado dessa maneira!
#inteligênciaartificial #chatgpt #datascience
  • ChatGPT: um "estagiário de LUXO" para aumentar sua produtividade na programação.

 #programacao #copiloto #produtividade #streamlit #dashboard #tecnologia #devlife
  • Da série “Foi a IA que me deu”, vamos relembrar minha viagem pra Tromsø, na Noruega, 500 km acima da linha do Círculo Polar Ártico. 🌍❄️

No vídeo de hoje, você vai aprender o que é um "fiorde"! 

Como você dormia sem saber o que era um fiorde?? 😅
  • Qual LINGUAGEM DE PROGRAMAÇÃO é usada na TESLA?

A Tesla utiliza diferentes linguagens de programação em cada fase do ciclo de desenvolvimento. 

O treinamento das redes neurais convolucionais (CNN) é feito em Python, aproveitando bibliotecas científicas e a rapidez de prototipagem. Isso permite testar arquiteturas de CNN com agilidade no ambiente de pesquisa.

Já a implementação embarcada ocorre em C++, garantindo alta performance. Como os modelos de CNN precisam responder em tempo real, o C++ assegura baixa latência para tarefas como detectar pedestres e interpretar placas de trânsito.

Com isso, a Tesla combina Python para pesquisa e C++ para produção, equilibrando inovação e velocidade em sistemas críticos de visão computacional.

#python #machinelearning #inteligenciaartificial
Instagram Youtube LinkedIn Twitter
Sigmoidal

O melhor conteúdo técnico de Data Science, com projetos práticos e exemplos do mundo real.

Seguir no Instagram

Categorias

  • Aeroespacial
  • Artigos
  • Blog
  • Carreira
  • Cursos
  • Data Science
  • Deep Learning
  • Destaques
  • Entrevistas
  • IA Generativa
  • Livros
  • Machine Learning
  • Notícias
  • Python
  • Teoria
  • Tutoriais
  • Visão Computacional
  • Youtube

Navegar por Tags

camera calibration carreira chatgpt cientista de dados cnn computer vision Cursos dados desbalanceados data science data science na prática decision tree deep learning gpt-3 histograma IA generativa image formation inteligência artificial jupyter kaggle keras machine learning matplotlib mnist nft openai opencv overfitting pandas profissão python redes neurais redes neurais convolucionais regressão linear regressão logística salário scikit-learn seaborn sklearn tensorflow titanic tutorial visão computacional vídeo youtube árvore de decisão

© 2024 Sigmoidal - Aprenda Data Science, Visão Computacional e Python na prática.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

Sem Resultado
Ver Todos Resultados
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
  • English

© 2024 Sigmoidal - Aprenda Data Science, Visão Computacional e Python na prática.