Laboratório de Sistemas Inerciais e Fusão Sensorial
O Laboratório de Sistemas Inerciais e Fusão Sensorial resulta de parceria entre as Divisões de Engenharia Eletrônica e Engenharia Aeronáutica do ITA, pesquisando e desenvolvendo algoritmos e subsistemas voltados à navegação inercial auxiliada por fusão sensorial, guiamento, controle e estimação de sistemas dinâmicos. Historicamente, é uma continuação e aprofundamento do escopo e objetivos do Laboratório de Visão Computacional Ativa e Percepção, que, na década de 90, desenvolveu no ITA projeto com recursos da FAPESP e CAPES na área de Visão Computacional Ativa utilizando uma cabeça de visão estereoscópica. Atualmente, o laboratório tem empregado recursos do Projeto FINEP-DCTA-INPE/Sistemas Inerciais para Aplicação Aeroespacial (Projeto SIA), Projeto CNPq-FAPESP/INCT Ciências do Espaço, e Projeto FINEP-UnB-ITA-XMobots/Desenvolvimento de Mini-VANT com Imageador Giroestabilizado. Os resultados do laboratório nas áreas de estimação e controle de sistemas dinâmicos, navegação, guiamento e visão computacional têm aplicações em satélites universitários e veículos aéreos não tripulados (VANT).
O laboratório tem integrado e
ensaiado no solo e em voo imageadores giroestabilizados capazes de
navegação inercial auxiliada por fusão com GPS, altímetro e
magnetômetro, também apresentando a capacidade de apontamento com
georeferenciamento. O laboratório tem desenvolvido software embarcado
para controle desses imageadores em tempo real. Também vem sendo
desenvolvido e ensaiado auxílio à navegação
inercial baseado em visão computacional rodando em tempo real prevendo
situações em que os sinais de GPS não estão disponíveis ou não são
confiáveis.
[Escopo e objetivos][Cabeça de visão ativa] [História] [Disciplinas] [Equipamentos] [Publicações] [Integrantes] [Fotos/Vídeos]
Navegação inercial busca estimar a
posição, velocidade e,
também, a
atitude de um veículo a partir de medidas de força específica e
velocidade angular em relação ao referencial inercial provenientes,
respectivamente, de acelerômetros e girômetros de uma unidade inercial
embarcada. Oferece a vantagem de autonomia em relação a auxílios
externos. Entretanto, requer
sensores caros e sofisticados para manter os erros limitados à classe
inercial, a saber, uma milha náutica por hora de operação. O emprego de
sensores inerciais de baixo custo degrada significativamente esse nível
de
acurácia e requer, portanto, o auxílio de sensores adicionais. Como
consequência, o sistema de navegação auxiliado por fusão sensorial
deixa de ser autônomo e pode
sofrer influência de perturbações externas, sejam elas intencionais ou
não. O auxílio à navegação advém de processamento estatístico dos
sinais de
receptores de GPS, magnetômetros, baro-altímetros e câmeras de vídeo
analógico e digital.
Mais recentemente, o Laboratório de Sistemas Inerciais e Fusão Sensorial tem projetado, desenvolvido, integrado e testado diversos imageadores e o software embarcado de tempo real que os controla e provê as funcionalidades de fusão sensorial para navegação inercial auxiliada, de giroestabilização e de apontamento georeferenciado. Muitas partes mecânicas são fabricadas com impressão 3D no laboratório.
Em
especial, o auxílio à navegação
inercial
empregando visão computacional objetiva prover robustez à ausência
de sinais GPS. Visão é um dos mais
poderosos sentidos que
possuímos. A modelagem e as teorias computacionais para descrever o
processo visual, a concepção e a implementação
de sistemas que buscam emular o aparato visual
humano derivam de pesquisas multidisciplinares envolvendo física
óptica,
estimação e controle de sistemas dinâmicos, assim como neurofisiologia,
psicologia, psicofísica e áreas afins. Visão propicia informação
sobre
as posições e propriedades dos objetos observados, as relações
entre si mesmos, o ambiente que
os cerca e o movimento do observador.
A informação extraída de imagens, o
conceito
de observabilidade em sistemas dinâmicos e a implementação em tempo
real de algoritmos para a fusão
estatística de medidas dos sensores embarcados permitem
atacar os problemas de navegação de plataformas de pequeno porte na
ausência de sinais de GPS e de
estimação da estrutura
tridimensional observada. Também importante é superar o desafio de
cumprir
com os requisitos de acurácia da navegação mediante fusão sensorial em
tempo real, conforme acima discutido, com equipamentos, recursos
computacionais e sensores comercialmente
disponíveis e dentro dos limites de orçamento do laboratório.
O laboratório instrumentou aeromodelos comerciais, motoplanadores projetados e desenvolvidos no próprio laboratório e uma bicicleta para uso como plataformas para prova de conceito dos algoritmos e subsistemas em condições realistas de operação. Os ensaios em voo ocorrem quando há NOTAM (Notice to Airmen) emitido pelo SRPV-SP para tal.
Cabeça estereoscópica com vergência assimétrica para experimentos com visão ativa (1995-1999)
A cabeça de visão empregada no passado constituía-se de motores DC atuando sobre os eixos de pan, tilt e vergência assimétrica. Duas unidades controladoras, englobando circuitos lógicos e de potência para acionamento PWM e controle PID, serviam de interface para envio de comandos para a cabeça. O imageamento era feito através de câmeras CCD e lentes servocontroladas, sendo a abertura do diafragma das lentes, foco e distância focal (zoom) ajustados segundo as necessidades da tarefa visual a ser realizada. (TRAEDV-N.MPG - 2.6MB).
O laboratório, na época, contou com os seguintes equipamentos:
- 2 câmeras monocromáticas Hitachi KP-M1U e 1 câmera colorida Hitachi VK-370;
- 2 Microcomputadores Pentium 166 MHz, 4 Gb HD SCSI, 32 Mb RAM, CD-ROM 8x, monitores 17';
- Cabeça de Visão TRC-Helpmate Bi-Sight;
- VCR e TV;
- Placa de aquisição de vídeo FAST com chip de descompressão MPEG;
- Lentes servocontroláveis Fujinon H10x11E-MPX31e placas de aquisição de imagens DT3552.
Visão computacional é uma ciência baseada em fundamentos teóricos, a qual requer experimentos para que seja validada uma teoria e/ou algoritmo. Assim, aliados à intenção de se estudar percepção visual orientada por tarefa (visão com propósito) e realimentação visual, algoritmos de visão foram testados em um sistema de visão binocular capaz de, em tempo real, alterar seus parâmetros de aquisição de imagens. O imageamento tornava-se um processo dinâmico a ser controlado de acordo com as informações visuais já obtidas e ainda por extrair. As informações visuais provenientes dos algoritmos de visão computacional eram empregadas no controle da pose da cabeça, a vergência entre as câmeras, a distância focal das lentes (zoom), o foco e a abertura do diafragma das lentes através de sinais de ativação enviados por uma rede de computadores que conseguiam executar em tempo hábil os algoritmos de visão e controle. Cabe notar que a capacidade computacional dos computadores pessoais de mesa então usados, Pentium 166 MMX, era bastante limitada.
O laboratório, na época, investigou técnicas de identificação, controle e estimação, calibração de sistemas de visão e algoritmos de visão computacional para a implementação de comportamentos visuais para:
-Automação de processos envolvendo visão como sensor;
-Navegação inercial auxiliada por visão;
-Rastreamento de objetos;
-Reconstrução 3-D a partir de estereoscopia, movimento e textura.
início
EE-292:
Visão Computacional para Controle de Sistemas (1995-2000)
ELE-82: Aviônica
(2000-2014)
ELE-26: Sistemas Aviônicos
EES-60: Sensores e Sistemas para Navegação e Guiamento
EE-294: Sistemas de Pilotagem e Guiamento
EE-295: Sistemas
de Navegação Inercial e Auxiliados por Fusão Sensorial
Viegas, W. da V.C. ; Waldmann, J.; Santos, D.A.; Waschburger, R. Controle em três eixos para aquisição de atitude por satélite universitário partindo de condições iniciais desfavoráveis. Controle & Automação (Impresso), v. 23, p. 231-246, 2012.
Ferreira, J.C.B.C.; Waldmann, J. Covariance Intersection-Based Sensor Fusion for Sounding Rocket Tracking and Impact Area Prediction. Control Engineering Practice, v.15, p. 389-409, 2007.
Waldmann, J.
Feedforward INS aiding: an investigation of maneuvers
for in-flight alignment. Controle & Automação (Impresso), v. 18, p.
459-470, 2007.
Waldmann, J. Line-of-Sight Rate Estimation and Linearizing Control of an Imaging Seeker in a Tactical Missile Guided by Proportional Navigation. IEEE Transactions on Control Systems Technology, v.10, n.4, p. 556-567, 2002.
Caetano, F. F.; Waldmann, J. Attentional Management for Multiple Target Tracking by a Binocular Vision Head. SBA. Sociedade Brasileira de Automática, Campinas, v.11, n.3, p. 187-204, 2000.
Viana, S. A. A.; Waldmann, J.; Caetano, F.F. Non-Linear Optimization-Based Batch Calibration with Accuracy Evaluation. SBA. Sociedade Brasileira de Automática, Campinas, v. 10, n.2, p. 88-99, 1999.
Integrantes
e colaboradores (setembro 2014):
Primeira
configuração utilizada para pesquisa em rastreamento mediante
visão monocular, empregando microcâmera pinhole
Pacific VP-500 dotada de lente com distância focal 3.7mm. (Dez/96).
Algoritmo 1: Deteção de movimento, segmentação por nível de cinza e estimação do centróide de movimento. Requer fundo com textura quase homogênea. (AUTOTR-N.MPG - 525 KB)
Algoritmo 2: Compensação do movimento do fundo induzido pela movimentação da câmera mediante utilização de informação dos encoders acoplados à cabeça de visão, filtragem via operadores morfológicos, segmentação por movimento e estimação do centróide de movimento. Requer conhecimento da distância focal da lente. (EDVATR-N.MPG - 1.7MB)
Configuração
empregada para avaliação do controle de vergência e
movimentos de pan e tilt do sistema esteroscópico,
chaveamento entre fontes de sinal de vídeo e desenvolvimento da
interface gráfica. ( Jul/96 - Mar/97)
Vídeo de apresentação do LVCAP-ITA/INPE enviado ao CNPq, apresentando a interface gráfica e os modos de controle de posição e velocidade angular. (CNPQ-S.MPG - 39.7MB)
[Escopo e objetivos] [Cabeça de visão ativa] [História] [Disciplinas] [Equipamentos] [Publicações] [Integrantes][Fotos/Vídeos]
Última atualização: |
Página construída por: |
19/junho/2015 |
JW |