fbpx
Sigmoidal
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
Sem Resultado
Ver Todos Resultados
  • English
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
Sem Resultado
Ver Todos Resultados
Sigmoidal
Sem Resultado
Ver Todos Resultados

Fundamentos da Formação da Imagem

Nesta aula você aprenderá a teoria por trás da formação da imagem na Visão Computacional (Computer Vision). Este artigo é o primeiro de uma série chamada Visão Computacional: Algoritmos e Aplicações.

Carlos Melo por Carlos Melo
março 22, 2023
em Teoria, Visão Computacional
2
161
COMPARTILHAMENTOS
5.4k
VIEWS
Publicar no LinkedInCompartilhar no FacebookCompartilhar no Whatsapp

Em um mundo repleto de mistérios e maravilhas, a fotografia se ergue como um fenômeno que captura o efêmero e o eterno em um único instante. Como uma dança silenciosa entre luz e sombra, ela convida nossa imaginação a vagar pelos corredores do tempo e do espaço. Através de um processo surpreendentemente simples, a captura de raios de luz por meio de uma abertura e um tempo de exposição, somos levados à contemplação de fotografias que sabemos que ficarão eternizadas.

O filósofo José Ortega y Gasset uma vez refletiu sobre a paixão pela verdade como sendo a mais nobre e inexorável. E, sem dúvida, a fotografia é uma das mais sublimes expressões dessa busca pela verdade, capturando a realidade em um fragmento de tempo.

E por trás desse processo, está a magia das matrizes, projeções, transformações de coordenadas e modelos matemáticos que, como fios invisíveis, tecem a tapeçaria entre a realidade capturada pela lente de uma câmera e os pixels brilhantes na sua tela.

Mas para entender como é possível modelar matematicamente o mundo visual, com toda a sua riqueza de detalhes, nós precisamos antes entender por que a visão é tão complexa e desafiadora. Neste é primeiro artigo da série Visão Computacional: Algoritmos e Aplicações, e eu quero te convidar a conhecer como as máquinas enxergam uma imagem e como uma imagem é formada.

Os desafios da Visão Computacional

A visão computacional é uma área fascinante que busca desenvolver técnicas matemáticas capazes de reproduzir a percepção tridimensional do mundo ao nosso redor. Richard Szeliski, em seu livro “Computer Vision: Algorithms and Applications”, descreve como, com aparente facilidade, percebemos a estrutura tridimensional do mundo ao nosso redor e a riqueza de detalhes que podemos extrair de uma simples imagem. Entretanto, a visão computacional enfrenta dificuldades em reproduzir esse nível de detalhe e precisão.

Szeliski destaca que, apesar do avanço das técnicas de visão computacional nas últimas décadas, ainda não conseguimos fazer com que um computador explique uma imagem com o mesmo nível de detalhe que uma criança de dois anos. A visão é um problema inverso, onde procuramos recuperar informações desconhecidas a partir de dados insuficientes para especificar completamente a solução. Para resolver esse problema, é necessário recorrer a modelos baseados em física e probabilidade, ou aprendizado de máquina com grandes conjuntos de exemplos.

Esquema representando o princípio físico do sensoriamento remoto óptico, através da interação entre superfície, energia solar e sensor.

Modelar o mundo visual em toda a sua complexidade é um desafio maior do que, por exemplo, modelar o trato vocal que produz sons falados. A visão computacional busca descrever e reconstruir propriedades como forma, iluminação e distribuição de cores a partir de uma ou mais imagens, algo que humanos e animais fazem com facilidade, enquanto os algoritmos de visão computacional são propensos a erros.

Como uma imagem é formada

Antes de analisarmos e manipularmos imagens, é preciso entender o processo de formação de imagem. Como exemplos de componentes do processo de produção de uma dada imagem, Szeliski (2022) cita:

  1. Projeção em perspectiva: A maneira como objetos tridimensionais são projetados em uma imagem bidimensional, levando em conta a posição e a orientação dos objetos em relação à câmera.
  2. Dispersão da luz após atingir a superfície: A forma como a luz se espalha depois de interagir com a superfície dos objetos, influenciando a aparência das cores e sombras na imagem.
  3. Óptica da lente: O processo pelo qual a luz passa através de uma lente, afetando a formação da imagem devido à refração e outros fenômenos ópticos.
  4. Matriz de filtro de cor Bayer: Um padrão de filtro de cor usado na maioria das câmeras digitais para capturar cores em cada pixel, permitindo a reconstrução das cores originais da imagem.

Em relação ao processo de formação da imagem, este é bem simples geometricamente. Um objeto reflete a luz que incide sobre ele, e essa luz é capturada por um sensor, formando uma imagem após um certo tempo de exposição. Mas se fosse assim, dada a grande quantidade de raios de luz vindos a partir tantos ângulos diferentes, o nosso sensor não seria capaz de focar em nada e apresentaria apenas um certo borrão luminoso.

Para garantir que cada parte do cenário incida apenas em um ponto do sensor, é possível introduzir uma barreira óptica com um orifício que permite a passagem apenas uma parte dos raios de luz, reduzindo o desfoque e proporcionando uma imagem mais nítida. Esse buraco colocado na barreira se chama de abertura ou pinhole, e é crucial para a formação de uma imagem nítida, permitindo que câmeras e outros dispositivos de captura de imagem funcionem adequadamente.

Uma máquina fotográfica que não possui lente é conhecida como câmera “pinhole”, que significa “buraco de alfinete”.

Esse princípio da física, conhecido como câmera escura, serve como base para a construção de qualquer câmera fotográfica. Uma câmera de modelo pinhole ideal possui um orifício infinitamente pequeno para obter uma imagem infinitamente nítida.

No entanto, o problema com as câmeras pinhole é que há uma relação de trade-off entre nitidez e luminosidade. Quanto menor for o orifício, maior será a nitidez da imagem. Porém, como a quantidade de luz que passa é menor, é necessário aumentar o tempo de exposição.

Além disso, se o orifício for da mesma ordem de grandeza do comprimento de onda da luz, teremos o efeito da difração, que acaba distorcendo a imagem. Na prática, um orifício menor que 0,3 mm causará interferências nas ondas de luz, tornando a imagem borrada.

A solução para esse problema é o uso de lentes. No caso, uma lente convergente fina permitirá que o raio que passe pelo centro da lente não seja defletido e que todos os raios paralelos ao eixo óptico se intersectem em um único ponto (ponto focal).

A Magia das Lentes na Formação de Imagens

Lentes são elementos ópticos essenciais na formação de imagens, pois permitem que mais luz seja capturada pelo sensor enquanto ainda mantêm a nitidez da imagem. As lentes funcionam refratando a luz que passa através delas, direcionando os raios de luz para os pontos corretos no sensor.

No contexto da calibração de câmera, a lente fina convergente é usada como um modelo simplificado para descrever a relação entre o mundo tridimensional e a imagem bidimensional capturada pelo sensor da câmera. Este modelo teórico é útil para entender os princípios básicos da óptica geométrica e simplificar os cálculos envolvidos na calibração da câmera, e deve satisfazer duas propriedades:

  1. Os raios que passam pelo Centro Óptico não são desviados; e
  2. Todos os raios paralelos ao Eixo Óptico convergem no Ponto Focal.

Como veremos no próximo artigo, a calibração da câmera envolve a determinação dos parâmetros intrínsecos e extrínsecos que descrevem a relação entre as coordenadas do mundo real e as coordenadas da imagem. Os parâmetros intrínsecos incluem a distância focal, o ponto principal e a distorção da lente, enquanto os parâmetros extrínsecos descrevem a posição e a orientação da câmera em relação ao mundo.

Embora o modelo de lente fina seja uma simplificação do sistema óptico real de uma câmera, ele pode ser usado como ponto de partida para a calibração.

Foco e distância focal

O foco é um dos principais aspectos na formação de imagens com lentes. A distância focal, representada por f, é a distância entre o centro da lente e o ponto focal, onde os raios de luz paralelos ao eixo óptico convergem após passar pela lente.

Equação da Lente. Fonte: Davide Scaramuzza (2022).

A distância focal está diretamente relacionada à capacidade da lente de concentrar a luz e, consequentemente, influencia a nitidez da imagem.

A equação do foco é dada por:

    \[ \frac{1}{f} = \frac{1}{z} + \frac{1}{e} \]

onde z é a distância entre o objeto e a lente, e e é a distância entre a imagem formada e a lente. Essa equação descreve a relação entre a distância focal, a distância do objeto e a distância da imagem formada.

Abertura e profundidade de campo

A abertura é outro aspecto fundamental na formação de imagens com lentes. A abertura, geralmente representada por um valor de f-número, controla a quantidade de luz que passa através da lente. Um valor de f-número menor indica uma abertura maior, permitindo a entrada de mais luz e resultando em imagens mais brilhantes.

A abertura também afeta a profundidade de campo, que é a faixa de distância em que os objetos aparecem nítidos na imagem. Uma abertura maior (menor valor de f-número) resulta em uma profundidade de campo menor, fazendo com que apenas os objetos próximos ao plano focal sejam nítidos, enquanto objetos mais distantes ou mais próximos ficam desfocados.

Essa característica pode ser útil para criar efeitos artísticos, como destacar um objeto em primeiro plano e desfocar o fundo.

Distância focal e ângulo de visão

A distância focal da lente também afeta o ângulo de visão, que é a extensão do cenário capturado pela câmera. Lentes com uma distância focal menor têm um ângulo de visão mais amplo, enquanto lentes com uma distância focal maior têm um ângulo de visão mais estreito. Lentes grande angulares, por exemplo, possuem distâncias focais curtas e são capazes de capturar uma ampla visão da cena. Lentes teleobjetivas, por outro lado, possuem distâncias focais longas e são adequadas para capturar objetos distantes com maior detalhamento.

Guia de Distância Focal com ângulos e aplicações mais comuns na fotografia.

Ao selecionar a lente apropriada, é possível ajustar a composição e o enquadramento da imagem, bem como controlar a quantidade de luz que entra no sensor e a profundidade de campo. Além disso, o uso de lentes permite a manipulação da perspectiva e a captura de detalhes sutis que seriam impossíveis de serem registrados com um modelo pinhole.

Em suma, a lente é um componente crucial na formação de imagens, permitindo que os fotógrafos e cineastas controlem e moldem a luz de maneira eficaz e criativa. Com o conhecimento adequado sobre as características das lentes e suas implicações na formação da imagem, é possível explorar todo o potencial das câmeras e outros dispositivos de captura de imagem, criando imagens verdadeiramente impressionantes e expressivas.

Captura e Representação de Imagens Digitais

As câmeras digitais empregam um conjunto de fotodiodos (CCD ou CMOS) para converter fótons (energia luminosa) em elétrons, diferindo das câmeras analógicas que utilizam filme fotográfico para registrar as imagens. Essa tecnologia permite capturar e armazenar imagens em formato digital, simplificando o processamento e compartilhamento das fotos.

As imagens digitais são organizadas como uma matriz de pixels, onde cada pixel representa a intensidade da luz em um ponto específico da imagem. Um exemplo comum de imagem digital é a imagem de 8 bits, na qual cada pixel possui um valor de intensidade que varia de 0 a 255. Essa faixa de valores é resultado do uso de 8 bits para representar a intensidade, o que permite um total de 2^8 = 256 valores distintos para cada pixel.

No modelo RGB, atribui-se um valor de intensidade a cada pixel. No caso das imagens coloridas de 8 bits por canal, os valores de intensidade variam de 0 (preto) a 255 (branco) para cada um dos componentes das cores vermelho, verde e azul.

Na figura acima, vemos um exemplo de como uma máquina “enxergaria” uma aeronave da Força Aérea Brasileira. Nesse caso, cada pixel possui um vetor de valores associados a cada um dos canais RGB.

As câmeras digitais geralmente adotam um sistema de detecção de cores baseado em imagens RGB, onde cada cor é representada por um canal específico (vermelho, verde e azul). Um dos métodos mais comuns para capturar essas cores é o padrão Bayer, desenvolvido por Bryce Bayer em 1976 enquanto trabalhava na Kodak. O padrão Bayer consiste em uma matriz de filtros RGB alternados colocados sobre o conjunto de pixels.

É interessante notar que a quantidade de filtros verdes é duas vezes maior que a de filtros vermelhos e azuis, pois o sinal de luminância é determinado principalmente pelos valores verdes, e o sistema visual humano é muito mais sensível às diferenças espaciais de luminância do que de crominância. Para cada pixel, os componentes de cor ausentes podem ser estimados a partir dos valores vizinhos por interpolação – um processo conhecido como desmosaicagem.

Esquema do Filtro Bayer, mostrando a interação entre luz visível, filtros de cor, microlentes e sensor na captura de cores vibrantes e detalhadas em câmeras digitais.

Entretanto, é relevante destacar que este é apenas um exemplo comum. Na prática, uma imagem digital pode ter mais bits e mais canais. Além do espaço de cores RGB, existem diversos outros espaços de cores, como o YUV, que também podem ser utilizados na representação e processamento de imagens digitais.

Por exemplo, durante o período que trabalhei no Centro de Operações Espaciais, recebia imagens monocromáticas com resolução radiométrica de 10 bits por pixel e hiperespectrais com centenas de canais para análise.

Resumo

Este artigo apresentou os fundamentos da formação de imagens, explorando os desafios da visão computacional, o processo óptico da captura, a relevância das lentes e a representação de imagens digitais.

No segundo artigo desta série, ensinarei como implementar um exemplo prático em Python para converter as coordenadas de um objeto real 3D para uma imagem 2D, e como realizar a calibração de câmera (uma das áreas mais importantes da Visão Computacional).

Referências

  1. Szeliski, R. (2020). Computer Vision: Algorithms and Applications. Springer.
  2. Gonzalez, R. C., & Woods, R. E. (2018). Digital Image Processing. Pearson Education.
Compartilhar11Compartilhar64Enviar
Post Anterior

Como usar OpenCV e Python para calibrar câmeras

Próximo Post

Geometria da Formação de Imagens: Matrizes, Transformações e Sistemas de Coordenadas

Carlos Melo

Carlos Melo

Engenheiro de Visão Computacional graduado em Ciências Aeronáuticas pela Academia da Força Aérea (AFA) e Mestre em Engenharia Aeroespacial pelo Instituto Tecnológico de Aeronáutica (ITA).

Relacionado Artigos

Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”
Livros

Review do Livro “Mãos à obra: Aprendizado de Máquina com Scikit-Learn, Keras & TensorFlow”

janeiro 18, 2025
Carlos Melo e Sérgio Sacani – Ciência Sem Fim
Youtube

Carlos Melo e Sérgio Sacani – Ciência Sem Fim

por Carlos Melo
janeiro 16, 2025
Visão Computacional

Processamento de Nuvens de Pontos com Open3D e Python

por Carlos Melo
janeiro 2, 2025
Meta Movie Gen para gerar vídeos a partir de textos
Youtube

Inteligência Artificial criando filmes? Conheça Movie Gen, a nova ferramenta da META.

por Carlos Melo
outubro 30, 2024
O que é Visão Computacional - Podcast Data Hackers
Carreira

O que é Visão Computacional — Data Hackers Episódio #92

por Carlos Melo
agosto 12, 2024
Próximo Post

Geometria da Formação de Imagens: Matrizes, Transformações e Sistemas de Coordenadas

Comentários 2

  1. Henrique Cardoso says:
    2 anos atrás

    Interessante como a teoria é a base para o entendimento da prática. Sem a base teórica tratada no texto, não há sentido entre visão computacional, matemática das matrizes e algoritmo de python.

    Mais uma vez, a Sigmoidal surpreendendo. Excelente conteúdo!

    Responder
    • Carlos Melo Carlos Melo says:
      2 anos atrás

      Exatamente! Ainda mais nessa área da Visão Computacional. Obrigado pelo feedback!

      Responder

Deixe um comentário Cancelar resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Pós-Graduação em Data Science Pós-Graduação em Data Science Pós-Graduação em Data Science

Mais Populares

  • Introdução ao MediaPipe e Pose Estimation

    Introdução ao MediaPipe e Pose Estimation

    453 compartilhamentos
    Compartilhar 181 Tweet 113
  • ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

    388 compartilhamentos
    Compartilhar 155 Tweet 97
  • Equalização de Histograma com OpenCV e Python

    113 compartilhamentos
    Compartilhar 45 Tweet 28
  • Geometria da Formação de Imagens: Matrizes, Transformações e Sistemas de Coordenadas

    369 compartilhamentos
    Compartilhar 148 Tweet 92
  • Processamento de Nuvens de Pontos com Open3D e Python

    31 compartilhamentos
    Compartilhar 12 Tweet 8
  • Em Alta
  • Comentários
  • Mais Recente
Como Tratar Dados Ausentes com Pandas

Como Tratar Dados Ausentes com Pandas

agosto 13, 2019
Como usar o DALL-E 2 para gerar imagens a partir de textos

Como usar o DALL-E 2 para gerar imagens a partir de textos

dezembro 25, 2022
Introdução ao MediaPipe e Pose Estimation

Introdução ao MediaPipe e Pose Estimation

julho 15, 2023

ORB-SLAM 3: Tutorial Completo para Mapeamento 3D e Localização em Tempo Real

abril 10, 2023
Como Analisar Ações da Bolsa com Python

Como Analisar Ações da Bolsa com Python

15
Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

Setembro Amarelo: Análise do Suicídio no Brasil, com Data Science

13
Como Aprender Data Science?

Como Aprender Data Science?

9
Qual o Cenário de Data Science no Brasil hoje?

Qual o Cenário de Data Science no Brasil hoje?

8
DeepSeek vazamento de dados de usuários

DeepSeek: Vazamento de dados expõe dados de usuários

fevereiro 1, 2025
DeepSeek R1 vs OpenAI o1 – Qual é o Melhor Modelo de IA

DeepSeek R1 vs OpenAI o1 – Qual é o Melhor Modelo de IA?

janeiro 25, 2025
Trump Anuncia Investimento de US$ 500 Bilhões em Infraestrutura de IA

Trump Anuncia Investimento de US$ 500 Bilhões em Infraestrutura de IA

janeiro 22, 2025
Trump revoga decreto de Biden sobre regulação de Inteligência Artificial

Trump revoga decreto de Biden sobre regulação de Inteligência Artificial

janeiro 21, 2025

Seguir

  • Cada passo te aproxima do que realmente importa. Quer continuar avançando?

🔘 [ ] Agora não
🔘 [ ] Seguir em frente 🚀
  • 🇺🇸 Green Card por Habilidade Extraordinária em Data Science e Machine Learning

Após nossa mudança para os EUA, muitas pessoas me perguntaram como consegui o Green Card tão rapidamente. Por isso, decidi compartilhar um pouco dessa jornada.

O EB-1A é um dos vistos mais seletivos para imigração, sendo conhecido como “The Einstein Visa”, já que o próprio Albert Einstein obteve sua residência permanente através desse processo em 1933.

Apesar do apelido ser um exagero moderno, é fato que esse é um dos vistos mais difíceis de conquistar. Seus critérios rigorosos permitem a obtenção do Green Card sem a necessidade de uma oferta de emprego.

Para isso, o aplicante precisa comprovar, por meio de evidências, que está entre os poucos profissionais de sua área que alcançaram e se mantêm no topo, demonstrando um histórico sólido de conquistas e reconhecimento.

O EB-1A valoriza não apenas um único feito, mas uma trajetória consistente de excelência e liderança, destacando o conjunto de realizações ao longo da carreira.

No meu caso específico, após escrever uma petição com mais de 1.300 páginas contendo todas as evidências necessárias, tive minha solicitação aprovada pelo USCIS, órgão responsável pela imigração nos Estados Unidos.

Fui reconhecido como um indivíduo com habilidade extraordinária em Data Science e Machine Learning, capaz de contribuir em áreas de importância nacional, trazendo benefícios substanciais para os EUA.

Para quem sempre me perguntou sobre o processo de imigração e como funciona o EB-1A, espero que esse resumo ajude a esclarecer um pouco mais. Se tiver dúvidas, estou à disposição para compartilhar mais sobre essa experiência! #machinelearning #datascience
  • 🚀Domine a tecnologia que está revolucionando o mundo.

A Pós-Graduação em Visão Computacional & Deep Learning prepara você para atuar nos campos mais avançados da Inteligência Artificial - de carros autônomos a robôs industriais e drones.

🧠 CARGA HORÁRIA: 400h
💻 MODALIDADE: EAD
📅 INÍCIO DAS AULAS: 29 de maio

Garanta sua vaga agora e impulsione sua carreira com uma formação prática, focada no mercado de trabalho.

Matricule-se já!

#deeplearning #machinelearning #visãocomputacional
  • Green Card aprovado! 🥳 Despedida do Brasil e rumo à nova vida nos 🇺🇸 com a família!
  • Haverá sinais… aprovado na petição do visto EB1A, visto reservado para pessoas com habilidades extraordinárias!

Texas, we are coming! 🤠
  • O que EU TENHO EM COMUM COM O TOM CRUISE??

Clama, não tem nenhuma “semana” aberta. Mas como@é quinta-feira (dia de TBT), olha o que eu resgatei!

Diretamente do TÚNEL DO TEMPO: Carlos Melo &Tom Cruise!
  • Bate e Volta DA ITÁLIA PARA A SUÍÇA 🇨🇭🇮🇹

Aproveitei o dia de folga após o Congresso Internacional de Astronáutica (IAC 2024) e fiz uma viagem “bate e volta” para a belíssima cidade de Lugano, Suíça.

Assista ao vlog e escreve nos comentários se essa não é a cidade mais linda que você já viu!

🔗 LINK NOS STORIES
  • Um paraíso de águas transparentes, e que fica no sul da Suíça!🇨🇭 

Conheça o Lago de Lugano, cercado pelos Alpes Suíços. 

#suiça #lugano #switzerland #datascience
  • Sim, você PRECISA de uma PÓS-GRADUAÇÃO em DATA SCIENCE.
  • 🇨🇭Deixei minha bagagem em um locker no aeroporto de Milão, e vim aproveitar esta última semana nos Alpes suíços!
  • Assista à cobertura completa no YT! Link nos stories 🚀
  • Traje espacial feito pela @axiom.space em parceria com a @prada 

Esse traje será usados pelos astronautas na lua.
para acompanhar as novidades do maior evento sobre espaço do mundo, veja os Stories!

#space #nasa #astronaut #rocket
  • INTERNATIONAL ASTRONAUTICAL CONGRESS - 🇮🇹IAC 2024🇮🇹

Veja a cobertura completa do evento nos DESTAQUES do meu perfil.

Esse é o maior evento de ESPAÇO do mundo! Eu e a @bnp.space estamos representando o Brasil nele 🇧🇷

#iac #space #nasa #spacex
  • 🚀 @bnp.space is building the Next Generation of Sustainable Rocket Fuel.

Join us in transforming the Aerospace Sector with technological and sustainable innovations.
  • 🚀👨‍🚀 Machine Learning para Aplicações Espaciais

Participei do maior congresso de Astronáutica do mundo, e trouxe as novidades e oportunidade da área de dados e Machine Learning para você!

#iac #nasa #spacex
  • 🚀👨‍🚀ACOMPANHE NOS STORIES

Congresso Internacional de Astronáutica (IAC 2024), Milão 🇮🇹
Instagram Youtube LinkedIn Twitter
Sigmoidal

O melhor conteúdo técnico de Data Science, com projetos práticos e exemplos do mundo real.

Seguir no Instagram

Categorias

  • Aeroespacial
  • Artigos
  • Blog
  • Carreira
  • Cursos
  • Data Science
  • Deep Learning
  • Destaques
  • Entrevistas
  • IA Generativa
  • Livros
  • Machine Learning
  • Notícias
  • Python
  • Teoria
  • Tutoriais
  • Visão Computacional
  • Youtube

Navegar por Tags

camera calibration carreira chatgpt cientista de dados cnn computer vision Cursos dados desbalanceados data science data science na prática decision tree deep learning gpt-3 histograma IA generativa image formation inteligência artificial jupyter kaggle keras machine learning matplotlib mnist nft openai opencv overfitting pandas profissão python redes neurais redes neurais convolucionais regressão linear regressão logística salário scikit-learn seaborn sklearn tensorflow titanic tutorial visão computacional vídeo youtube árvore de decisão

© 2024 Sigmoidal - Aprenda Data Science, Visão Computacional e Python na prática.

Welcome Back!

Login to your account below

Forgotten Password?

Retrieve your password

Please enter your username or email address to reset your password.

Log In

Add New Playlist

Sem Resultado
Ver Todos Resultados
  • Home
  • Cursos
  • Pós-Graduação
  • Blog
  • Sobre Mim
  • Contato
  • English

© 2024 Sigmoidal - Aprenda Data Science, Visão Computacional e Python na prática.