Child pages
  • INF 2064 - 3cr - 2010.2
Skip to end of metadata
Go to start of metadata

Visão Computacional e Realidade Aumentada

Prof. Marcelo Gattass,  , Sala 516 RDC

Horário e Local:

3as feiras, de 13 às 16h, 5º andar do RDC, sala 511

Objetivo

Realidade Aumentada (AR, Augmented Reality) permite a convergência de mundos reais e virtuais. A evolução de novas interfaces AR começa a ter um significativo impacto na indústria e na sociedade em geral. A área é interdisciplinar e reúne: processamento de sinais, visão computacional, computação gráfica, interação humano-computador, tecnologias de sensores e de monitores, mobilidade e ubiquidade.  A ênfase deste curso são as técnicas de Visão Computacional.  Ou seja, procuramos estudar modelos e algoritmos de Visão Computacional e Computação Gráfica que dêem suporte a aplicações de realidade aumentada.  O objetivo central consiste em estudaremos algoritmos que nos permitam modelar a cena capturada por uma câmera de vídeo e com isto medirmos formas e movimentos que estejam ocorrendo nela.  O curso também objetiva reproduzirmos em tempo real as imagens capturadas com objetos virtuais acrescentados nela de forma a incrementarmos a percepção do que esta sendo visto.

Tópicos

  • Foto digital: câmera "pinhole" e radiometria
  • Tratamento de ruídos em imagens
  • Detecção de feições em imagens
  • Modelos de câmera e calibração intrínseca e extrínseca.
  • Visão estereoscópica com ou sem luz estruturada
  • Recuperação de forma e movimentos
  • Composição de imagens reais e virtuais

Pré-Requisitos

Conhecimentos básicos de: Computação Gráfica, Álgebra Linear, Geometria e Algoritmos. Proficiência em programação C/C++.

Trabalhos:

Monitor: Lucas Teixeira - lucas@tecgraf.puc-rio.br

trabalho 1: Posicionamento de cameras
  • data de entrega: 24/ago
  • O programa fornecido utiliza o ARToolKitPlus para detectar marcadores (fiduciais) e calibrar cameras. Mais detalhes aqui  
  • O trabalho 1 consiste em aprender a utilizar a biblioteca e calcular a posição relativa de todos os marcadores de um video em relação ao primeiro. Em seguida, colocar no programa um objeto virtual (teapot) com o centro na posição p=(x,y,z) e rotacionado de um angulo de 60o em torno do eixo (1,3,2)) no sistema de coordenada comum a todos os marcadores.
trabalho 2: Mapeamento de pontos
  • data de entrega: 14/set
  • O objetivo do trabalho é recuperar  a posição 3D dos marcadores esfericos em relação ao marcador de (codigo 3). Para isso voces vão precisar calcular a posição dos marcadores esfericos a partir de varios pares de imagem e depois tirar algum tipo de media das varias estimativas de posição para cada um dos marcadores.
    Esse trabalho é continuação do primeiro. Então a capacidade de calcular a posição de um marcador fiducial em relação ao outro precisa funcionar corretamente para fazer o trabalho 2.
  • Use a cena 3 e o modulo de estereo fornecidos  aqui
trabalho 3: Trabalho Final
  • data de entrega da definição do tema do trabalho: 14/set
  • data de entrega da entrega e apresentação do trabalho: 30/nov

Escolher dentro da lista abaixo um tema de sua preferencia:

  1. Usar detecção de textura para fazer a localização da câmera.
  2. Reconhecer a mesma texturas em pares de imagens estéreo. Calcule a  posição 3D dos pontos chaves dessas texturas.
  3. Utilizar algoritmos de fluxo otico para acompanhar as feições ao longo de trechos do video calculando as posicoes 3D dessas feicoes.
  4. Retificar imagens e fazer correcoes radiais para melhorar a qualidade da reconstrução.
  5. Fazer um ajuste dos pontos da cena  computados pelo trabalho 3 de forma a melhorar a acurácia de duas coordenadas.
  6. Reconhecer os planos que compõe a cena.
  7. Reconhecer objetos da cena.

Referências

  1. Richard Szeliski, Computer Vision: Algorithms and Applications (c) 2010, Microsoft Research (link)
  2. David A. Forsyth and Jean Ponce, Computer Vision  A Modern Approach, Prentice Hall, 2003.
  3. Emanuele Truco and Alessandro Verri,  Intoductory Techniques for 3-D Computer Vision, Prentice-Hall, 1998.
  4. Ramesh Jain, Rangachar Kasturi and Bian G. Schunck, Machine Vision, McGraw Hill, 1995
  5. William R. Sherman and Alan B. Craig, Understanding Virtual Reality - Intefaces, Appications and Design

Diretórios do curso

  • Apresentações das aulas em ppt (link)
  • Tutorial do OpenCV (Maurício e Aurélio) (link)
  • Apresentação de teses sobre o assunto do curso (link)
  • Software (link)
  • Referêrencias (link)
  • Fotos para Estéreo Ativo (link)
  • Videos para teste (link)

Trabalhos das Turmas Anteriores

  • No labels