Datasets:
id
stringlengths 22
47
| text
stringlengths 0
23.8M
| dc.subject.fos
stringclasses 27
values | dc.title
stringlengths 3
444
| dc.subject
stringlengths 0
4.09k
| dc.type
stringclasses 16
values | Collection
stringclasses 322
values | dc.creator
stringlengths 0
4.46k
| dc.date.issued
stringdate 1914-01-01 00:00:00
2025-01-01 00:00:00
| dc.identifier.uri
stringlengths 32
166
| dc.rights
stringclasses 9
values | dc.rights.uri
stringclasses 6
values | fos.assignment
stringclasses 2
values | pt.auto
stringclasses 3
values | pt.mean.confidence.auto
stringclasses 835
values | pt.pt.auto
stringclasses 4
values | pt.pt.mean.confidence.auto
stringclasses 991
values |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
EngTec_MAThesis_PTPT_2009_026233_1
|
<!-- image -->
## INTEGRA˙ˆO DE SISTEMAS DE VISˆO EM CÉLULAS ROBÓTICAS
Nuno Alberto Marques Mendes
DISSERTA˙ˆO PARA OBTEN˙ˆO DO GRAU DE MESTRE EM ENGENHARIA MEC´NICA
Fevereiro de 2009
<!-- image -->
## INTEGRA˙ˆO DE SISTEMAS DE VISˆO EM CÉLULAS ROBÓTICAS
## Nuno Alberto Marques Mendes
Dissertaçªo para obtençªo do Grau de Mestre em
## Engenharia Mecânica
## Jœri:
Presidente: Professora Doutora Marta Oliveira Orientador: Professor Doutor J. Norberto Pires Vogal: Professor Doutor Altino Loureiro
Fevereiro de 2009
## AGRADECIMENTOS
Os meus agradecimentos vªo para todos os que tornaram este trabalho possível, e que de uma forma ou de outra contribuíram para o resultado que podemos encontrar nestas pÆginas. É com enorme sentimento de gratidªo que destaco:
- /xrhombus O Professor Doutor J. Norberto Pires, orientador deste trabalho, pelas facilidades concedidas na utilizaçªo do laboratório de controlo e robótica e do apoio prestado ao longo de todo este trabalho.
- /xrhombus O Engenheiro Pedro Neto por toda a disponibilidade e paciŒncia demonstrada, e todo o conhecimento que me transmitiu.
- /xrhombus Os Engenheiros Germano Veiga, Ricardo Araœjo e o Professor Doutor Francisco Caramelo que em momentos de pouca clarividŒncia me transmitiram dicas cruciais.
- /xrhombus Finalmente, aos meus familiares e amigos por toda a motivaçªo, apoio, paciŒncia, compreensªo e disponibilidade.
A mente que se abre a uma nova ideia jamais voltarÆ ao seu tamanho original… (Albert Einstein)
## RESUMO
A presente dissertaçªo aborda o controlo de robôs 1 industriais baseado em sistemas de visªo. O principal objectivo Ø o desenvolvimento e implantaçªo de um Sistema de Visªo que funcione como elemento sensor ao controlo de um robô industrial. O Sistema de Visªo detecta características de objectos, nos quais sªo realizadas operaçıes de manipulaçªo ' pickand-place ' e reproduçªo de contornos.
Sobre o tema Ø apresentado o estado da arte e ainda as ferramentas de Visªo por Computador necessÆrias à sua implantaçªo.
O trabalho desenvolvido Ø um trabalho que abrange diversas Æreas. Algumas das quais se passam a enumerar: distorçªo de imagem, processamento de imagem, precisªo de robôs industriais, geraçªo automÆtica de código para robôs, entre outras. Qualquer uma destas Æreas Ø consideravelmente vasta e como tal tŒm sido, e podem ser, alvo de estudos e dissertaçıes aprofundadas. Com o intuito de nªo tornar a presente dissertaçªo demasiado extensa, os diversos assuntos abordados serªo tratados de uma forma tªo resumida quanto possível incidindo no essencial sobre os aspectos relevantes para o presente trabalho. TambØm a aplicaçªo desenvolvida Ø considerada bastante extensa, contendo inœmeras linhas de código, pelo que nesta dissertaçªo os aspectos de programaçªo serªo apresentados muito superficialmente, sendo dada principal relevância à abordagem adoptada para solucionar as diversas dificuldades ou objectivos que se pretendiam colmatar. No entanto, serÆ abordado extensivamente a interacçªo do utilizador com o software desenvolvido.
Serªo tambØm apresentados alguns dos resultados obtidos em testes executados durante o desenvolvimento do sistema.
SerÆ por fim apresentado uma anÆlise dos resultados obtidos, bem como de sugestıes da aplicabilidade do Sistema de Visªo em ambiente industrial e de trabalhos futuros a realizar nesta Ærea.
1 Ao longo do presente texto Ø usado por diversas vezes a palavra robô. No contexto deste trabalho pretende-se com esta palavra fazer referŒncia a robôs manipuladores, sendo qualquer outro caso devidamente mencionado.
A implantaçªo deste Sistema de Visªo em testes realizados, revelou um excelente desempenho quando os objectos se encontram no centro da imagem. No entanto, quando estes se afastam do centro da imagem e possuem altura considerÆvel (nªo podendo ser considerados como objectos bidimensionais) os resultados pioram ligeiramente todavia nªo colocam em causa a realizaçªo das operaçıes.
Palavras-chave: Visªo por Computador, Representaçªo de Contornos, Manipulaçªo de Objectos, Robôs Manipuladores, Robótica Industrial.
## ABSTRACT
This thesis addresses the control of industrial robots 2 based on Vision Systems. The main objective is the development and deployment of a system that works as a Vision sensing element to the control of an industrial robot. The Vision System detects features of objects, in which operations are conducted (manipulation "pick-and-place" and reproduction of contours). The current state of the art and some Computer-Vision tools necessary for the deployment of the system are presented. Several areas are covered, including image distortion, image processing, accuracy of industrial robots, generation automatic code for robots, among others. Any of these areas are considerably larger, so that have been subject of depth studies and dissertations.
In order to not make this essay too long, the various issues raised will be treated in a way as short as possible, addressing relevant information about the developed work. The developed application is considered quite large, containing many lines of code, so the programming aspects will be presented very superficially, given relevance to the approach used to solve the problems and reach the targets. However, the interaction between the user and the developed software will be extensively discussed.
To attest the viability of the developed robotic cell, several tests are made. Finally, the results obtained in tests are analyzed, possible industrial applications analyzed, and future discussed.
The implemented system presented good results, even in the presence of non-controlled sources of light and shadows. Nevertheless, the method to calibrate the camera should be improved.
Keywords: Computer Vision, Reproduction of Contours, Pick-and-place, Manipulators Robots, Industrial Robotic.
2 The word robot is many times referred in the thesis. In the context of this work, this word refers to robotic manipulators. Any other case will be duly mentioned.
## ˝NDICE
| CAP˝TULO UM.........................................................................................................................1 | CAP˝TULO UM.........................................................................................................................1 |
|-----------------------------------------------------------------------------------------------------------------------------------------|-----------------------------------------------------------------------------------------------------------------------------------------|
| 1 | Introduçªo...........................................................................................................................1 |
| 1.1 | Organizaçªo da Tese....................................................................................................1 |
| 1.2 | História da robótica industrial .....................................................................................2 |
| 1.3 | Tipos de robôs industriais............................................................................................4 |
| 1.4 | Descriçªo tØcnica e Definiçªo de parâmetros de um Robô.........................................7 |
| CAP˝TULO DOIS......................................................................................................................9 | CAP˝TULO DOIS......................................................................................................................9 |
| 2 | Estado da Arte ....................................................................................................................9 |
| 2.1 | Tipos de Sistemas de Visªo.......................................................................................10 |
| 2.1.1 | Sistemas de Visªo Activa...................................................................................10 |
| 2.1.2 | Sistemas de Visªo Passiva..................................................................................12 |
| 2.2 | Configuraçªo física dum sistema de visªo ................................................................13 |
| 2.2.1 | Visªo Monocular................................................................................................14 |
| 2.2.2 | Visªo EstØreo......................................................................................................15 |
| 2.2.3 | Sistemas com Câmaras Redundantes .................................................................17 |
| 2.3 | Dificuldades dos Sistemas de Visªo em Operar........................................................17 |
| CAP˝TULO TR˚S ...................................................................................................................19 | CAP˝TULO TR˚S ...................................................................................................................19 |
| 3 | Aquisiçªo e Tratamento de Imagem.................................................................................19 |
| 3.1 | Bibliotecas de Visªo..................................................................................................19 |
| 3.2 | Característica da Câmara e da Lente .........................................................................20 |
| 3.3 | Extracçªo de Informaçªo de uma Cena.....................................................................21 |
| 3.4 | Software de Visªo Desenvolvido ..............................................................................24 |
| 3.4.1 | Pontos...........................................................................................25 |
| CAP˝TULO QUATRO ............................................................................................................29 | CAP˝TULO QUATRO ............................................................................................................29 |
| 4 Calibraçªo da Câmara e da Imagem.................................................................................29 | 4 Calibraçªo da Câmara e da Imagem.................................................................................29 |
| 4.1 | | Calibraçªo de Imagem (Primeiro MØtodo)................................................................29 |
|--------------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------|--------------------------------------------------------------------------------------------------------------------------------------|
| | 4.1.1 | Equaçıes MatemÆticas .......................................................................................32 |
| 4.2 | Calibraçªo de Imagem (Segundo MØtodo)................................................................35 | Calibraçªo de Imagem (Segundo MØtodo)................................................................35 |
| 4.2.1 | 4.2.1 | Determinaçªo dos parâmetros de calibraçªo......................................................37 |
| 4.2.2 | 4.2.2 | Reconstruçªo da imagem sem distorçªo ............................................................39 |
| 4.2.3 | 4.2.3 | Conversªo de Coordenadas................................................................................40 |
| 4.3 | Comparaçªo dos MØtodos de Calibraçªo de Imagem ...............................................42 | Comparaçªo dos MØtodos de Calibraçªo de Imagem ...............................................42 |
| CAP˝TULO CINCO.................................................................................................................45 | CAP˝TULO CINCO.................................................................................................................45 | CAP˝TULO CINCO.................................................................................................................45 |
| 5 | Robô Industrial.................................................................................................................45 | Robô Industrial.................................................................................................................45 |
| 5.1 | 5.1 | Comunicaçªo .............................................................................................................46 |
| 5.2 | 5.2 | Envio de Pontos.........................................................................................................47 |
| 5.3 | 5.3 | Ordenaçªo e Reduçªo de Pontos ...............................................................................48 |
| 5.4 | 5.4 | Tipos de Movimentos do Robô .................................................................................50 |
| 5.5 | 5.5 | Estudo do Tipo de Movimento a Utilizar ..................................................................52 |
| 5.6 | 5.6 | Calibraçªo do Robô ...................................................................................................55 |
| CAP˝TULO SEIS.....................................................................................................................56 | CAP˝TULO SEIS.....................................................................................................................56 | CAP˝TULO SEIS.....................................................................................................................56 |
| 6 | Funcionamento do Software Desenvolvido .....................................................................56 | Funcionamento do Software Desenvolvido .....................................................................56 |
| CAP˝TULO SETE....................................................................................................................63 | CAP˝TULO SETE....................................................................................................................63 | CAP˝TULO SETE....................................................................................................................63 |
| 7 | Conclusıes .......................................................................................................................63 | Conclusıes .......................................................................................................................63 |
| REFER˚NCIAS BIBLIOGR`FICAS.....................................................................................65 | REFER˚NCIAS BIBLIOGR`FICAS.....................................................................................65 | REFER˚NCIAS BIBLIOGR`FICAS.....................................................................................65 |
## LISTA DE TABELAS, FIGURAS E ABREVIATURAS
## LISTA DE TABELAS
| Tabela 1.1: Especificaçıes do Robô ..........................................................................................6 |
|---------------------------------------------------------------------------------------------------------------------------------------------------|
| Tabela 3.1: Etapas do Processo de Extracçªo de Informaçªo de uma Cena............................22 |
| Tabela 4.1: Discretizaçªo da imagem [pixel]...........................................................................31 |
| Tabela 4.2: Erros nas regressıes calculadas.............................................................................33 |
| Tabela 4.3: Equaçıes de calibraçªo na direcçªo vertical. ........................................................33 |
| Tabela 4.4: Equaçıes de calibraçªo na direcçªo horizontal.....................................................34 |
| LISTA DE FIGURAS |
| Figura 1.1: Robô UNIMATION.................................................................................................3 |
| Figura 1.2: Robô PUMA............................................................................................................4 |
| Figura 1.3: (a) Robô tipo SCARA; (b) Robô Cartesiano; (c) Robô Articulado de 6 eixos; (d) |
| Robô Articulado de 7 eixos........................................................................................................5 |
| Figura 1.4: Robô industrial MOTOMANHP6..........................................................................6 |
| Figura 1.5: Volume de trabalho do robô MOTOMAN HP6: (a) No plano XZ; (b) No plano |
| XY..............................................................................................................................................7 |
| Figura 1.6: Robôs industriais a realizar operaçıes de montagem num chassi de um veículo. ..8 |
| Figura 2.1: Esquema representativo de um Sistema de Visªo Activa......................................11 |
| Figura 2.2: Esquema representativo de um Sistema de Visªo Passivo ....................................12 |
| Figura 2.3: Visªo Monocolar com a câmara no elemento terminal e a olhar para o objecto, |
| Figura 2.4: Visªo Monocular com câmara a olhar para o objecto e para o robô manipulador, |
| eye-to-hand ...............................................................................................................................15 |
| Figura 2.5: Visªo EstØreo com as câmaras colocadas no elemento terminal e a olhar para o |
| objecto. .....................................................................................................................................16 |
| Figura 2.6: Visªo EstØreo com as câmaras a olhar para o objecto e para o robô manipulador.17 | |
|------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|---------------------------------------------------------------------------------------|
| Figura 3.1: Câmara uEye UI-1410-C. ......................................................................................20 | |
| Figura 3.2: Grelha de píxeis. ....................................................................................................22 | |
| Figura 3.3: (a) Imagem de uma cena real; (b) Imagem Binarizada..........................................23 | |
| Figura 3.4: Resumo dos procedimentos de Visªo por Computador.........................................24 | |
| Figura 3.5: a) Imagem Normal; b) Imagem Suavizada............................................................25 | |
| Figura 3.6: Aplicaçªo da funçªo Convex Hull . ........................................................................27 | |
| Figura 3.7: Janela Contours do programa IndustrialRobotCV .................................................27 | |
| Figura 4.1: Padrªo Xadrez utilizado na primeira calibraçªo....................................................30 | |
| Figura 4.2: Padrªo xadrez utilizado no segundo mØtodo de calibraçªo. ..................................35 | |
| Figura 4.3: Software para encontrar e orientar o referencial imagem......................................36 | |
| Figura 4.4: Modelo de distorçªo (radial e tangencial) da ferramenta Camera Calibration | |
| Toolbox for Matlab ...................................................................................................................37 | |
| Figura 4.5: Imagem utilizada para estimar os parâmetros de calibraçªo. ................................38 | |
| Figura 4.6: (a) Imagem adquirida com efeito olho de peixe ; (b) Imagem reconstruída segundo o mØtodo de reduçªo do efeito olho de peixe . ..........................................................................39 | |
| Figura 4.7: Esquema representativo da Calibraçªo de Imagem...............................................40 | |
| Figura 4.8: a) Imagem captada pela câmara; b) Imagem a definir os contornos dos | objectos |
| (contornos a rosa). ....................................................................................................................42 | |
| Figura 5.1: CØlula robótica (modo representaçªo de contornos). ............................................45 | |
| Figura 5.2: Comunicaçªo utilizada na aplicaçªo......................................................................46 | |
| Figura 5.3: Esquema representativo dos objectos e subprogramas utilizados nesta aplicaçªo.47 | |
| Figura 5.4: Movimento Circular nos pontos P1-P2-P3 e Movimento Linear para P4............51 | |
| Figura 5.5: Movimento Spline nos pontos P1-P2-P3-P4-P5. ................................................51 | |
| Figura 5.6: Contorno efectuado com Movimentos Lineares....................................................52 | |
| Figura 5.7: Contorno efectuado com Movimentos Circulares. ................................................53 | |
| Figura 5.8: Contorno efectuado com Movimentos Spline ........................................................53 | |
| Figura 5.9: Níveis de Suavizaçªo do Movimento Linear.........................................................54 | |
| Figura 5.10: Contornos efectuados com Movimentos Lineares Suavizados (a) PL = 0; (b) | PL |
| = 1; (c) PL = 2; (d) PL = 3. ......................................................................................................54 | |
| Figura 6.1: Interface do ' IndustrialRobotCV '. ........................................................................56 | |
| Figura 6.2: Escolha do Tipo e do Modo de Operaçªo..............................................................57 Figura 6.3: Botıes de aquisiçªo de | imagem.............................................................................57 |
| Figura 6.4: Extracçªo de informaçªo da imagem.....................................................................58 |
|--------------------------------------------------------------------------------------------------------------------------------------------|
| Figura 6.5: Algumas funçıes de comando do robô..................................................................59 |
| Figura 6.6: Painel de comandos directos do robô. ...................................................................60 |
| Figura 6.7: Informaçªo presente no software sobre: a) Estados do robô; b)Posiçªo em que o |
| robô se encontra. ......................................................................................................................61 |
| Figura 6.8: Informaçªo sobre a operaçªo de Manipulaçªo de Objectos. .................................61 |
| Figura 6.9: Informaçªo sobre a operaçªo de Reproduçªo de Contornos. ................................62 |
| Figura 6.10: Representaçªo do contorno (a verde) a realizar pelo robô. .................................62 |
| Figura 6.11: Campo onde se pode alterar o IP do robô............................................................62 |
| LISTA DE GR`FICOS |
| GrÆfico 4.1: Calibraçªo do eixo y no intervalo x Є ]425 ; 460]. ..............................................32 |
| GrÆfico 4.2: Correcçªo da imprecisªo do robô segundo a direcçªo x no 3' quadrante............44 |
## LISTA DE ABERVIATURAS
## Capítulo 3
- d Distância entre o pixel a analisar e outro pixel da sua vizinhança;
- g Valor de brilho quantificado para um pixel;
- n Nœmero de pontos em píxeis pertencentes ao objecto;
- t Valor do brilho que estabelece o que Ø objecto na imagem e o que nªo Ø;
- x Coordenada do pixel na vizinhança do pixel a analisar, na direcçªo horizontal;
- xc Coordenada do pixel a analisar na direcçªo horizontal;
- Xg Coordenada na direcçªo horizontal do centro de massa do objecto presente na imagem em pixØis;
- Xi Coordenada na direcçªo horizontal do pixel i do objecto presente na imagem em pixØis;
- y Coordenada do pixel na vizinhança do pixel a analisar, na direcçªo vertical;
- yc Coordenada do pixel a analisar na direcçªo vertical;
- Yg Coordenada na direcçªo vertical do centro de massa do objecto presente na imagem em pixØis;
- Coordenada na direcçªo vertical do pixel do objecto presente na imagem em pixØis;
- Yi i σ Factor de suavizaçªo.
## Capítulo 4
| /g1829 /g3044,/g3051 | Constante de conversªo do quadrante q segundo a direcçªo horizontal x ; |
|-------------------------------------------|----------------------------------------------------------------------------------------------------------------|
| /g1829 /g3044,/g3052 | Constante de conversªo do quadrante q segundo a direcçªo vertical y ; |
| /g1837 /g3044,/g3051 [/g3040/g3040] | MØdia dos pontos recolhidos no quadrante q e na direcçªo horizontal, segundo o referencial cena em milímetros; |
| /g1837 /g3044,/g3051 [/g3043/g3036/g3051] | MØdia dos pontos recolhidos no quadrante q e na direcçªo horizontal, segundo o referencial imagem em píxeis; |
| /g1837 /g3044,/g3052 [/g3040/g3040] | MØdia dos pontos recolhidos no quadrante q e na direcçªo vertical, segundo o referencial cena em milímetros; |
| /g1837 /g3044,/g3052 [/g3043/g3036/g3051] | MØdia dos pontos recolhidos no quadrante q e na direcçªo vertical, segundo o referencial imagem em píxeis; |
| /g1876 /g3036 [/g3040/g3040] | Coordenada do ponto i segundo a direcçªo horizontal, no referencial cena em milímetros; |
| /g1876 /g3037 [/g3043/g3036/g3051] | Coordenada do ponto i segundo a direcçªo horizontal, no referencial imagem em píxeis; |
| /g1877 /g3036 [/g3040/g3040] | Coordenada do ponto i segundo a direcçªo vertical, no referencial cena em milímetros; |
| /g1877 /g3037 [/g3043/g3036/g3051] | Coordenada do ponto i segundo a direcçªo vertical, no referencial imagem em píxeis; |
| cc | Ponto principal; |
| fc | Distância focal; |
| kc | Coeficiente de distorçªo; |
| n | Nœmero de pontos recolhidos; |
| Rx | Orientaçªo do robô para um ponto na direcçªo Rx; |
| Ry | Orientaçªo do robô para um ponto na direcçªo Ry; |
| Rz | Orientaçªo do robô para um ponto na direcçªo Rz; |
| x | coordenada de um ponto na imagem no referencial imagem em pixØis segundo a direcçªo horizontal; |
| X | Coordenada de um ponto no referencial do robô na direcçªo x; |
| x c | coordenada de um ponto da imagem no referencial cena em milímetros segundo a direcçªo horizontal; |
| y | coordenada de um ponto na imagem no referencial imagem em píxeis segundo a direcçªo vertical; |
- Y Coordenada de um ponto no referencial do robô na direcçªo y;
- yc coordenada de um ponto da imagem no referencial cena em milímetros segundo a direcçªo vertical;
- Z Coordenada de um ponto no referencial do robô na direcçªo z;
- α Coeficiente de distorçªo entre eixos;
## Capítulo 5
- d Distância entre o ponto de referŒncia e um ponto na sua periferia;
- xestab. Coordenada de um ponto no referencial imagem, em píxeis, segundo a direcçªo horizontal, que foi estabelecido como pertencente aos pontos da matriz Ordenaçªo de Pontos;
- xi Coordenada de um ponto no referencial imagem, em píxeis, segundo a direcçªo horizontal, pertencente aos pontos da matriz Obtençªo de Pontos;
- yestab. Coordenada de um ponto no referencial imagem, em píxeis, segundo a direcçªo vertical, que foi estabelecido como pertencente aos pontos da matriz Ordenaçªo de Pontos;
- yi Coordenada de um ponto no referencial imagem, em píxeis, segundo a direcçªo vertical, pertencente aos pontos da matriz Obtençªo de Pontos;
## CAP˝TULO UM
## 1 Introduçªo
Hoje em dia, a automaçªo Ø indispensÆvel no sector industrial. Os benefícios de uma mÆquina fazer o trabalho, para o qual seriam necessÆrias vÆrias pessoas para o realizar, mais rapidamente, com menos erros e com uma maior disponibilidade traduz-se, muitas vezes, num bom investimento a longo prazo para uma empresa (ganhos de produtividade e qualidade). No entanto, atendendo ao elevado investimento inicial, dever-se-Æ realizar um estudo económico acerca deste, a fim de verificar a viabilidade do investimento.
Actualmente assiste-se a um mercado global onde a concorrŒncia vem de 'todos os cantos' do planeta, sendo um dos principais objectivos das empresas a diminuiçªo do ciclo de produçªo dum produto tendo em vista a reduçªo do seu preço final, mantendo sempre níveis de qualidade elevados que devem ser melhorados de dia para dia. Por outro lado, o ciclo de vida dum produto Ø muito baixo, o que leva a que um produto que se produz hoje em grandes quantidades amanhª jÆ nªo seja produzido. Este facto faz com que hoje em dia a automaçªo flexível se tenha vindo a sobrepor à automaçªo rígida (mÆquinas dedicadas a fazer uma determinada operaçªo num determinado produto). De realçar a robótica de manipulaçªo que Ø, em muitos casos, um elemento de extrema importância na automaçªo flexível .
O objectivo deste trabalho Ø o desenvolvimento e concretizaçªo de um sistema robótico, onde se utiliza um Sistema de Visªo como elemento sensor ao controlo de um robô industrial. Pretende-se que o Sistema de Visªo detecte objectos (Æreas, contornos, cores e posiçıes) para a realizaçªo de dois tipos de operaçıes distintas. Manipulaçªo de objectos ' pick-and-place ' ou reproduçªo de contornos dos mesmos.
## 1.1 Organizaçªo da Tese
Este trabalho estÆ dividido em sete capítulos, os quais se passam a explicitar:
Para alØm do jÆ exposto, o capítulo um apresenta ainda a história da robótica, os tipos de robôs industriais existentes e os seus principais parâmetros.
O capítulo dois apresenta um levantamento sobre o estado da arte acerca de aplicaçıes onde se utilizam sistemas de visªo no 'controlo' de robôs, assim como os vÆrios tipos de sistemas de visªo existentes e as diversas configuraçıes dos sistemas de visªo em cØlulas robóticas.
O capítulo trŒs apresenta o aparato experimental a realizar e os acessórios de visªo utilizados para o fim proposto. Demonstra tambØm os processos de extracçªo de informaçªo de uma imagem e mØtodos matemÆticos utilizados na elaboraçªo de software de aquisiçªo e processamento de imagem.
O capítulo quatro aborda a calibraçªo de imagem tendo em vista a reduçªo de distorçªo da imagem e a imprecisªo do robô.
O capítulo cinco apresenta as ferramentas utilizadas para comunicar com os dispositivos utilizados, demonstra a necessidade de reduzir o nœmero de pontos resultantes da extracçªo de informaçªo da imagem e o mØtodo utilizado. Este capítulo tambØm analisa a cinemÆtica do ponto de vista das trajectórias a realizar pelo robô.
O capítulo seis apresenta o software desenvolvido e explica, de forma breve, como o utilizador o deve utilizar.
Finalmente, o capítulo sete resume contribuiçıes propostas na tese e apresenta reflexıes. Apresenta ainda possíveis aplicaçıes na indœstria do sistema desenvolvido e possíveis optimizaçıes a realizar no futuro.
## 1.2 História da robótica industrial
George Devol recebeu as primeiras patentes sobre robótica em 1954. A primeira companhia a produzir um robô industrial foi a Unimation, fundada por George Devol e Joseph F. Engelberger em 1956, sendo baseada nas patentes originais de Devol. Os robôs da Unimation tambØm eram chamados de "mÆquinas de transferŒncia programadas", visto que a sua principal funçªo era a transferŒncia de objectos de um ponto para outro, a figura 1.1 ilustra este robô. Eles utilizavam actuadores hidrÆulicos e eram programados com "conjuntos de coordenadas", podendo-se considerar como exemplo um robô em que os ângulos de todas as juntas sªo armazenados durante uma fase de aprendizagem e, entªo repetidos durante a operaçªo normal.
Por muito tempo o œnico concorrente da Unimation foi a Cincinnati Milacron. No entanto durante os anos 70 esta situaçªo alterou-se radicalmente, quando um grande nœmero de conglomerados japoneses começou a produzir robôs industriais similares. A Unimation tinha obtido patentes nos Estados Unidos, porØm nªo as obteve no Japªo, que se recusou a seguir as leis de patentes internacionais, de modo que os projectos foram copiados.
Figura 1.1: Robô UNIMATION
<!-- image -->
Em 1969 Victor Scheinman inventou o braço de Stanford na Universidade de Stanford, um robô articulado de 6 eixos, totalmente elØctrico, projectado de modo a permitir uma soluçªo utilizando a anatomia de um braço. Isto permitiu que o robô fosse capaz de seguir com um elevado grau de precisªo trajectórias arbitrÆrias no espaço, aumentando as possibilidades de utilizaçªo de robôs em aplicaçıes mais sofisticadas tais como montagem de componentes e soldadura. Scheinman em seguida projectou um segundo braço para o MIT AI Lab, chamado de "braço do MIT". Sheinman vendeu os seus projectos para a Unimation, a qual os desenvolveu com o auxílio da General Motors e posteriormente o comercializou como a MÆquina ProgramÆvel Universal para Montagem (PUMA), a figura 1.2 ilustra este tipo de robô.
Em 1973, a KUKA construiu o seu primeiro robô industrial, conhecido com FAMULUS, sendo este o primeiro robô industrial articulado a possuir seis eixos controlados electronicamente.
O interesse na robótica industrial aumentou no final dos anos 70 e muitas companhias entraram no campo, incluindo grandes empresas como a General Eletric e a General Motors (que formaram o empreendimento FANUC Robotics juntamente com a FANUC do Japªo).
Figura 1.2: Robô PUMA
<!-- image -->
No momento mais intenso do crescimento da robótica em 1984, a Unimation foi comprada pela Westinghouse, que mais tarde, em 1988, acabou por a vender a Stäubli Faverges SCA, de França. A Stäubli ainda fabrica robôs articulados para a indœstria em geral, inclusive em 2004 comprou a divisªo de robótica da Bosch.
Eventualmente a visªo limitada da indœstria americana foi substituída pelos recursos financeiros e, grande parte do mercado interno usufruído pelas indœstrias japonesas. Apenas um pequeno nœmero de companhias nªo-japonesas foram capazes de se manter nesta Ærea, incluindo a Adept Technology, a Stäubli-Unimation, a companhia Sueca-Suiça ABB (ASEA Brown-Boveri), a companhia COMAU (pertencente ao Grupo Fiat), a construtora Austríaca igm Robotersysteme AG e a companhia Alemª KUKA Robotics.
## 1.3 Tipos de robôs industriais
As configuraçıes de robôs utilizadas mais comummente na automaçªo industrial incluem os robôs articulados (o tipo mais comum), os robôs SCARA, e os robôs cartesianos (tambØm conhecidos como robôs x-y-z) [1, 2], ver figura 1.3. ' Mas o que Ø isto de robô industrial? ' De acordo com a Robotic Industries Association , robô industrial Ø um ' manipulador
multifuncional, reprogramÆvel, projectado para movimentar materiais, ferramentas ou peças, atravØs de movimentos programados '. Uma definiçªo mais tØcnica Ø apresentada pela norma ISO 10218, como sendo ' uma mÆquina manipuladora, com vÆrios graus de liberdade, controlada automaticamente, reprogramÆvel, multi-funcional, com base fixa ou móvel para utilizaçªo em aplicaçªo industrial '.
Figura 1.3: (a) Robô tipo SCARA; (b) Robô Cartesiano; (c) Robô Articulado de 6 eixos; (d) Robô Articulado de 7 eixos.
<!-- image -->
No contexto da robótica, a maior parte dos robôs industriais seria categorizada como braços robóticos (inerente no uso da palavra "manipulador" mencionada na definiçªo da ISO). Os robôs industriais possuem diferentes níveis de autonomia. Alguns sªo programados para realizarem acçıes repetidamente sem nenhuma variaçªo, com um nível elevado de precisªo. Estas acçıes sªo determinadas por rotinas prØ-programadas que especificam a direcçªo, aceleraçªo, velocidade e distância de uma sØrie de movimentos coordenados. Outros sªo mais flexíveis em relaçªo à orientaçªo do objecto em que trabalham ou com o trabalho que realizam sobre o objecto, o qual pode eventualmente ser identificado pelo robô.
Geralmente os robôs sªo programados para operar em ambientes bem conhecidos. No entanto, hoje em dia procura-se que eles sejam cada vez mais 'inteligentes', i.e. sejam capazes de tomar alguns tipos de decisıes.
Com vista a colocar este aspecto em prÆtica, actualmente Ø frequente os robôs utilizarem vÆrios tipos de sensores que ajudem no reconhecimento e interpretaçªo do ambiente de trabalho em que se inserem, tais como sensores de força para reconhecer o contacto com o
ambiente de trabalho, sensores de ultra-sons e laser para medir distâncias e câmaras para visualizar o ambiente de trabalho na sua globalidade e a partir da imagem extrair a mais diversa informaçªo. A inteligŒncia artificial, e as suas variaçıes, possuem uma importância crescente nos robôs industriais modernos.
Figura 1.4: Robô industrial MOTOMAN HP6.
<!-- image -->
Um conceito importante Ø o volume de trabalho do robô, ou seja, o conjunto de todos os pontos que podem ser alcançados pela extremidade do robô, durante a sua movimentaçªo. Assim, os elementos que serªo manipulados e/ou processados pelo robô devem ser arranjados para ficarem dentro desse volume de trabalho.
No presente trabalho utiliza-se o robô MOTOMAN HP6 com o controlador NX100, o qual se ilustra na figura 1.4, na tabela 1.1 apresenta-se as características deste robô.
O volume de trabalho do robô MOTOMAN HP6 Ø apresenta na figura 1.3.
Tabela 1.1: Especificaçıes do Robô
| MOTOMANHP6 | MOTOMANHP6 |
|---------------------|---------------|
| Capacidade de carga | 6 [Kg] |
| Eixos controlados | 6 |
| Repetibilidade | +/- 0.08 [mm] |
| Massa | 130 [Kg] |
| Controlador | NX100 |
Figura 1.5: Volume de trabalho do robô MOTOMAN HP6: (a) No plano XZ; (b) No plano XY.
<!-- image -->
## 1.4 Descriçªo tØcnica e Definiçªo de parâmetros de um Robô
- /checkbld Nœmero de eixos - nœmero de graus de liberdade de um robô. Dois eixos sªo necessÆrios para se alcançar qualquer ponto no plano, trŒs eixos sªo necessÆrios para se alcançar qualquer ponto no espaço. Para controlar completamente a orientaçªo do extremo de um braço rotativo, outros trŒs eixos sªo necessÆrios.
- /checkbld CinemÆtica - disposiçªo dos membros e juntas de um robô, os quais determinam os possíveis movimentos do mesmo. As categorias cinemÆticas dos robôs incluem articulados, cartesianos, paralelos e SCARA.
- /checkbld Volume de trabalho - regiªo do espaço que um robô pode alcançar.
- /checkbld Capacidade de carga - quantidade de peso que um robô pode levantar.
- /checkbld Velocidade - rapidez com que um robô pode posicionar o extremo do seu braço.
- /checkbld Precisªo - o quªo próximo da posiçªo desejada o robô pode alcançar. A precisªo pode variar com a velocidade e a posiçªo no ambiente de trabalho. Ela pode ser aumentada atravØs da calibraçªo.
- /checkbld Repetibilidade - Ø a medida de quªo perto se pode posicionar um mecanismo de um ponto previamente armazenado.
- /checkbld Controle dos movimentos - para algumas aplicaçıes, tais como montagens repetitivas, o robô precisa apenas de executar repetidamente um nœmero limitado de posiçıes prØprogramadas. Para aplicaçıes mais sofisticadas, tais como a soldadura, o movimento deve ser continuamente controlado para que se siga um caminho no espaço, com a velocidade e orientaçªo controladas.
- /checkbld Fonte de energia - alguns robôs utilizam motores elØctricos, enquanto outros utilizam actuadores hidrÆulicos. O primeiro Ø mais rÆpido, enquanto o segundo Ø mais forte.
- /checkbld Acoplamento - alguns robôs conectam os motores elØctricos às juntas atravØs de caixas de reduçªo, outro conectam os motores directamente às juntas (acoplamento directo).
Figura 1.6: Robôs industriais a realizar operaçıes de montagem num chassi de um veículo.
<!-- image -->
## CAP˝TULO DOIS
## 2 Estado da Arte
Nos œltimos tempos tem-se vindo a assistir, no meio industrial, a uma crescente aposta nos sistemas de visªo com a finalidade de contribuir para o controlo de robôs manipuladores, denominado na literatura como ' visual servoing ', contolo visual de robôs. Tal facto deve-se a este tipo de sensor permitir retirar muita informaçªo sobre o ambiente circundante ao robô e de possuir uma elevada precisªo, quando devidamente calibrado. Um outro aspecto que em muito contribuiu para a crescente ascensªo deste tipo de sensor foi o aumento da capacidade de cÆlculo dos computadores. O processamento de imagem carece de algoritmos que sªo bastante complexos em quantidade de operaçıes de cÆlculo, o que se traduz em tempo de cÆlculo. Veja-se que no final da dØcada de setenta, data do primeiro sistema de controlo visual, o processamento de imagem era na ordem das dezenas de segundo em comparaçªo com os sistemas actuais, onde se pode encontrar sistemas de processamento de apenas 1 [ms], pelo que se pode dizer que os sistemas actuais sªo cada vez mais em 'tempo-real'.
HÆ quem chegue a afirmar que a utilizaçªo de visªo tornarÆ os robôs autónomos [3], ' A utilizaçªo de câmaras poderÆ, num futuro que esperamos próximo, tornar os robôs completamente autónomos para operar em meios desconhecidos ou dificilmente modelÆveis. '.
Nas actuais aplicaçıes de robôs na indœstria, estes movimentam-se em ambientes estruturados, i.e. em ambientes de trabalho especialmente projectados para a realizaçªo das vÆrias tarefas para que sªo programados, tarefas específicas. PorØm, o mundo em que vivemos e em que o robô se encontra inserido tem características dinâmicas, quer atravØs do seu próprio movimento, quer atravØs do movimento de objectos no ambiente de trabalho do robô, ou ainda de outros agentes aí existentes a realizar as suas tarefas [4], i.e. ambientes nªo estruturados. É considerando este novo facto que Ø imperioso, a fim de o robô poder interagir de uma forma harmoniosa com o meio que o rodeia, muni-lo com sensores capazes de
adquirir mais informaçªo que os clÆssicos encoders e tacómetros , colocados nas juntas dos robôs. Um dos sensores que melhor reœne as características necessÆrias ao adequado desempenho em ambientes nªo-estruturados Ø a visªo. Tal escolha Ø justificada pelos muitos sistemas biológicos que a utilizam para reunir informaçªo sobre o ambiente que os rodeia, pelo incremento das suas características e crescente disponibilidade no mercado a cada vez mais baixo custo [4], podendo ainda ser facilmente acoplados a computadores. Assim, atravØs do sensor de visªo, câmara , Ø possível extrair do ambiente de trabalho a informaçªo visual necessÆria à realizaçªo de tarefas por parte de robôs.
Em [5] e [6] sªo apresentados dois exemplos de aplicaçªo dos sistemas de visªo no controlo parcial de robôs. No primeiro sªo investigadas estratØgias para o controle de robôs manipuladores, usando realimentaçªo por visªo, na realizaçªo da tarefa de aproximaçªo e manipulaçªo de um objecto. No segundo Ø utilizado um sistema de visªo para controlar um robô na industria alimentar, mais propriamente para fazer a triagem e manuseamento de empadas de carne.
Os sistemas de visªo podem tambØm ser utilizados na detecçªo e interpretaçªo de gestos manuais, permitindo a interacçªo entre o utilizador e o robô [7].
## 2.1 Tipos de Sistemas de Visªo
Os sistemas de visªo podem ser subdivididos em dois tipos de abordagens, nomeadamente sistemas de visªo activa e sistemas de visªo passiva.
## 2.1.1 Sistemas de Visªo Activa
Sistemas de visªo activa referem-se ao caso onde Ø utilizado uma câmara e um projector. O projector Ø utilizado para projectar uma luz padrªo no objecto enquanto a câmara adquire uma imagem do objecto com a projecçªo padrªo. Um exemplo onde este sistema de visªo Ø utilizado encontra-se descrito em [8], a figura 2.1 pretende ilustrar um esquema deste tipo de sistema de visªo. Este tipo de sistema Ø amplamente utilizado no reconhecimento de objectos 3D, possibilitando obter informaçªo sobre a superfície 3D de um objecto conhecendo o padrªo de luz projectada sobre a superfície e analisando a forma da luz padrªo na imagem adquirida. Um aspecto negativo desta abordagem Ø a necessidade de hardware adicional, o
que nªo Ø desejÆvel. Em muitas aplicaçıes reais, Ø importante reduzir os custos de produçªo e inspecçªo. Pelo que a introduçªo de hardware adicional aumentarÆ o custo.
Figura 2.1: Esquema representativo de um Sistema de Visªo Activa
<!-- image -->
Os sistemas de visªo laser sªo tipicamente um exemplo de sistemas de visªo activa. Uma tØcnica muito utilizada nestes sistemas de visªo laser Ø a projecçªo de uma linha laser sobre um objecto que, vista numa câmara (normalmente CCD ' charge coupled device ' ou CMOS ' complementary metal oxide semiconductor '), apresenta uma alteraçªo da sua forma e posiçªo, que estªo directamente relacionadas com a forma do objecto segundo essa linha. A informaçªo volumØtrica de um objecto pode entªo ser calculada. Este Ø um dos mØtodos mais importantes na obtençªo de imagens tridimensionais (triangulaçªo por laser), pela sua característica simples, de nªo contacto, de alta precisªo e com rÆpida velocidade de mediçªo.
Em [9] Ø apresentado exaustivamente um sistema comercial deste tipo. Designado na literatura por ' Servo-Robot ' este sistema Ø aplicado a operaçıes de soldadura, permitindo controlar o robô de uma forma semi-automÆtica. Dado a sua capacidade de extracçªo de informaçªo/distâncias da cena observada pela câmara (câmara/tocha de soldadura/partes do objecto a soldar) e consoante os parâmetros fornecidos ao sistema, ele permite efectuar operaçıes de aproximaçªo ao início da soldadura, conduzir o robô durante a soldadura com base na preparaçªo de junta, e inspeccionar a soldadura realizada com base na sua geometria.
Um outro exemplo de sistemas de visªo activa Ø apresentado em [6], este trabalho consiste no desenvolvimento e construçªo de um sistema que retira informaçªo tridimensional de objectos atravØs de tØcnicas de triangulaçªo de um laser e uma câmara. Informaçªo essa utilizada no controlo de um robô manipulador para efectuar operaçıes de manuseamento de objectos.
## 2.1.2 Sistemas de Visªo Passiva
Sistemas de visªo passiva referem-se ao caso onde uma ou mais câmaras sªo utilizadas para adquirir imagem de um objecto. A figura 2.2 pretende ilustrar um esquema deste tipo de sistema de visªo. Este tipo de sistema difere dos sistemas de visªo activa na possibilidade de obter todas as imagens necessÆrias do objecto utilizando apenas uma câmara [10]. Com este tipo de abordagem nªo se obtØm a mesma quantidade de informaçªo que se consegue obter com os sistemas de visªo activa, pelo que a quantidade de hardware utilizada faz-se notar. A fim de atenuar essa diferença normalmente sªo desenvolvidos algoritmos bastante complexos.
Figura 2.2: Esquema representativo de um Sistema de Visªo Passivo
<!-- image -->
A utilizaçªo de sistemas de visªo para controlar robôs manipuladores que operam em ambientes industriais, desconhecidos, ou dificilmente modelÆveis requer uma elevada precisªo, fiabilidade e facilidade de colocaçªo em funcionamento.
A obtençªo de elevada precisªo nos sistemas de visªo tem associada a qualidade da informaçªo referente ao objecto no ambiente que o rodeia. Assim pode ser necessÆrio utilizar, em vez de visªo monocular, visªo estØreo ou ainda aumentar o nœmero de câmaras a observar o objecto. A utilizaçªo de visªo em conjunto com outro tipo de sensores, como os jÆ referidos ultra-sons, laser ou sensores de força, permite aumentar o conhecimento do meio em que o robô se movimenta e tambØm aumentar a precisªo nas medidas necessÆrias ao seu controlo.
A fiabilidade de um sistema de controlo visual estÆ dependente da fiabilidade dos equipamentos mecânicos e elØctricos que o constituem, assim como a robustez na variaçªo dos parâmetros de calibraçªo e a convergŒncia a partir de uma posiçªo inicial.
A facilidade de colocaçªo em funcionamento de um sistema de controlo visual estÆ dependente da sua fase de calibraçªo, i.e. esta fase deverÆ ser simplificada o mais possível e no caso ideal eliminada.
A extracçªo da informaçªo a partir da imagem, com vista a caracterizar o espaço de trabalho do robô manipulador, pode ser feita de duas formas:
- /head2right Utilizando informaçªo bidimensional expressa directamente nas coordenadas do plano da imagem, controlo visual 2D [11].
- /head2right Utilizando informaçªo tridimensional em que modelos da câmara e objecto sªo utilizados para determinar a pose do objecto relativamente aos referenciais da câmara, do robô, ou do mundo, controlo visual 3D [12].
- /head2right Na literatura encontra-se uma terceira forma de caracterizaçªo, denominada por controlo visual híbrido [13]. Esta œltima nªo Ø mais que a utilizaçªo em simultâneo dos dois tipos de caracterizaçªo mencionada em cima, de forma a melhorar o desempenho global do sistema. A fim de controlar o robô manipulador com base nas características do objecto na imagem, Ø necessÆrio estabelecer a relaçªo entre estas e as coordenadas da câmara, relativamente ao referencial do mundo ou do elemento terminal do robô manipulador.
## 2.2 Configuraçªo física dum sistema de visªo
Quando se utiliza um sistema de visªo para o controlo parcial de um robô manipulador, deve-se ter a noçªo que as características recolhidas a partir da imagem ou imagens dependem de vÆrios factores. Sªo eles o nœmero de câmaras utilizadas, da sua configuraçªo relativamente ao robô, da sua calibraçªo e ainda do conhecimento prØvio que se poderÆ obter do ambiente de trabalho onde se encontra o objecto.
A dependŒncia existente em relaçªo ao nœmero de câmaras do sistema, permite desde logo definir visªo monocular (uma câmara) e visªo estØreo (duas câmaras ligadas rigidamente) e ainda sistemas de câmaras redundantes .
Em relaçªo à configuraçªo da(s) câmara(s) relativamente ao robô, existem duas opçıes possíveis. Uma, em que a(s) câmara(s) encontra(m)-se ligadas rigidamente ao elemento terminal do robô e a 'olhar' para o objecto, eye-in-hand . E outra, em que a(s) câmaras(s) se encontra(m) no espaço a 'olhar' para o elemento terminal do robô e para o objecto simultaneamente, eye-to-hand .
Estes dois tipos de configuraçªo física dos sistemas de visªo serªo desenvolvidos nos próximos subcapítulos.
## 2.2.1 Visªo Monocular
Um sistema de visªo monocular utiliza somente uma câmara, que pode ser colocada no elemento terminal do robô a olhar o objecto ou ainda no espaço a olhar simultaneamente para o elemento terminal do robô e para o objecto. A principal vantagem deste tipo de sistema Ø o de minimizar o tempo de processamento necessÆrio para extrair as informaçıes visuais, sendo outra vantagem o seu custo. No entanto, tem a desvantagem de nªo ser possível determinar a profundidade, distância entre a câmara e o objecto de uma forma exacta, sendo necessÆria a sua estimaçªo.
## 2.2.1.1 Câmara a olhar o objecto
O sistema de visªo monocular em que a câmara se encontra colocada no elemento terminal do robô, eye-in-hand , e a olhar para o objecto, ver figura 2.3, tem a particularidade de ser o mais comum nas aplicaçıes de controlo visual de robôs manipuladores.
Figura 2.3: Visªo Monocolar com a câmara no elemento terminal e a olhar para o objecto, eye-in-hand .
<!-- image -->
Para este tipo de configuraçªo as aplicaçıes típicas sªo as de seguir um determinado objecto ou de mover o robô entre duas posiçıes prØ-definidas na imagem, usualmente na mesma imagem. Como exemplo de posiçıes definidas em imagens diferentes, temos o recente trabalho de Remazeilles [14], baseado numa base de dados de imagens (memória virtual). O
trabalho proposto em [10], ilustra um sistema monocular eye-in-hand para reconhecimento de objectos 2D e 3D. Neste estudo sªo adquiridas imagens do objecto e estas sªo comparadas com outras imagens armazenadas na base de dados.
## 2.2.1.2 Câmara a olhar o robô manipulador e o objecto
O tipo de sistema em que uma câmara se encontra a olhar o robô manipulador e o objecto, ver figura 2.4, eye-to-hand , foram os primeiros a surgir nos trabalhos sobre controlo visual de robôs manipuladores, [15]. Estes tipos de sistemas requerem calibraçªo pois utilizam como variÆveis a controlar a pose do objecto relativamente à câmara ou ao elemento terminal do robô. Neste tipo de sistemas Ø ainda necessÆrio determinar a posiçªo do elemento terminal do robô relativamente à câmara, o mesmo Ø dizer as coordenadas da câmara no referencial do mundo.
Figura 2.4: Visªo Monocular com câmara a olhar para o objecto e para o robô manipulador, eye-to-hand .
<!-- image -->
## 2.2.2 Visªo EstØreo
Um sistema de visªo estØreo Ø constituído por duas câmaras rigidamente ligadas com a finalidade de obter duas imagens do mesmo objecto. Este sistema de visªo Ø bastante œtil quando se pretende obter informaçªo tridimensional, por exemplo de um determinado objecto dentro do campo de visªo do par estØreo. Relativamente ao sistema de visªo monocular, a utilizaçªo de visªo estØreo facilita a obtençªo da profundidade embora penalizando o tempo de processamento das imagens e o custo do sistema. Em seguida sªo apresentadas as configuraçıes mais usuais deste sistema de visªo, em tudo idŒnticas à visªo monocular, i.e.
com as câmaras a olhar para o objecto ou a olhar para o elemento terminal do robô e para o objecto simultaneamente.
## 2.2.2.1 Câmaras a olhar o objecto
A utilizaçªo de um par estØreo rigidamente ligado ao elemento terminal, ver figura 2.5, nªo Ø muito usual, devido ao facto de a este tipo de sistema estar associado um maior volume (relativamente à visªo monocular), o que dificultarÆ outro tipo de aplicaçıes, tais como manipulaçªo de objectos. Contudo, a miniaturizaçªo cada vez maior dos sistemas de visªo tem vindo a esbater este obstÆculo. A utilizaçªo deste tipo de sistema induz um outro problema que tem a ver com a perda de precisªo dos algoritmos de reconstruçªo tridimensional, pois a distância entre os eixos ópticos das duas câmaras ( baseline ) [16], deste tipo de sistema devera ser pequena. Uma aplicaçªo deste tipo Ø detalhado em [17].
Figura 2.5: Visªo EstØreo com as câmaras colocadas no elemento terminal e a olhar para o objecto.
<!-- image -->
## 2.2.2.2 Câmaras a olhar o robô manipulador e o objecto
Quando as câmaras do par estØreo sªo colocadas num local prØ-definido no espaço, ver figura 2.6, eye-to-hand , os sistemas de visªo estØreo sªo mais utilizados no controlo de robôs manipuladores. Tal acontecimento deve-se ao facto de, neste caso nªo existirem restriçıes à baseline do par estØreo que quando colocado no elemento terminal a condicionava. Conseguese assim o comprimento necessÆrio na baseline do par estØreo para que os resultados da reconstruçªo 3D sejam precisos.
Figura 2.6: Visªo EstØreo com as câmaras a olhar para o objecto e para o robô manipulador.
<!-- image -->
## 2.2.3 Sistemas com Câmaras Redundantes
Quando sªo utilizadas mais que duas câmaras, os sistemas definem-se como redundantes, pois a partir de um par estØreo (duas câmaras) Ø possível reconstruir a informaçªo tridimensional de um objecto que se encontra no seu campo de visªo. A utilizaçªo deste tipo de sistemas permite obter informaçªo adicional sobre o que se estÆ a visualizar [4]. No entanto, o matching 3 [4] entre as vÆrias imagens da cena que se estÆ a visualizar Ø um procedimento complexo, pesado computacionalmente e com custos muito elevados. Como consequŒncia dos factos apresentados, a utilizaçªo destes sistemas no controlo visual de robôs Ø bastante rara. Note-se que neste tipo de sistemas tambØm se incluem a combinaçªo de visªo estØreo com visªo monocular, como Ø o caso por exemplo de um robô com uma câmara no elemento terminal e um par estØreo a visualizar o robô e o objecto.
## 2.3 Dificuldades dos Sistemas de Visªo em Operar
Muitas vezes os robôs operam em ambientes severos, os quais nªo oferecem as condiçıes mínimas para que o sistema de visªo possa operar com a eficiŒncia desejada. Esta situaçªo pode ocorrer em ambientes com sobreposiçªo de sombra dos objectos, em condiçıes de iluminaçªo deficiente ou com iluminaçªo excessiva. De modo a contornar este obstÆculo, a cØlula de produçªo deve ser projectada tendo em conta este factor. A iluminaçªo da Ærea de
3 matching - relaçªo existente entre diferentes imagens da mesma cena.
trabalho do robô deve ser controlada de modo a que a imagem adquirida possa ser processada eficientemente.
Uma soluçªo para eliminar este problema, muito utilizada na indœstria, Ø evitar parcialmente ou totalmente a luz solar e luz proveniente de iluminaçªo na Ærea de trabalho do robô e, ilumina-la com luz artificial que facilmente Ø controlada.
Hoje em dia o sucesso das mÆquinas de visªo no campo da robótica estÆ bem demonstrado. Esta Ø uma Ærea de estudo muito extensa que todos os dias apresenta novas soluçıes e ainda muitos mais desenvolvimentos sªo esperadas (por exemplo em modelaçªo 3D, bin-picking, etc.).
## CAP˝TULO TR˚S
## 3 Aquisiçªo e Tratamento de Imagem
A realizaçªo da presente dissertaçªo visa o desenvolvimento de uma aplicaçªo que utilize visªo para o controlo de uma cØlula robótica. Para esse efeito, foi utilizado um sistema de visªo passivo monocular com a configuraçªo eye-in-hand . Utilizou-se este sistema uma vez que a aplicaçªo pretendida nªo necessita da aquisiçªo de informaçªo tridimensional. A informaçªo acerca da terceira dimensªo Ø estabelecida com base em características dos objectos presentes na cena, na sua forma planar. Outra razªo para esta escolha prende-se com o objectivo de dotar o sistema com uma maior flexibilidade, i.e. estando a câmara fixa à extremidade móvel do robô Ø possível utilizar vÆrias Æreas de trabalho.
## 3.1 Bibliotecas de Visªo
O processamento de imagem ao longo dos œltimos tempos tem vindo a ser muito utilizado, pois a sua aplicaçªo estÆ presente nas mais diversas Æreas. Seja a nível industrial bem como a nível domØstico. Dada a sua elevada utilizaçªo surgiu a ideia de criar bibliotecas de programaçªo. Subprogramas facilmente incorporÆveis em programas a desenvolver, esses subprogramas deviriam ser genØricos e muito flexíveis, para que os programadores das mais diversificadas Æreas que utilizem processamento de imagem pudessem usufruir deles, despendendo muito menos tempo na elaboraçªo dos seus projectos. Uma vez, os algoritmos jÆ estarem desenvolvidos e implementados, de uma forma correcta e eficiente.
Este tipo de ferramenta apenas pretende ser parte integrante do software de programaçªo (Linguagem de Programaçªo), estando assim dependente deste. Existem vÆrias bibliotecas disponíveis na internet (normalmente grÆtis) que podem ser utilizadas, destacam-se OpenCV que Ø utilizado na linguagem de programaçªo C/C++, SharperCV utilizado em C#, Aforge.NET utilizado em C#, etc. Nesta dissertaçªo Ø desenvolvido durante o aparato
experimental uma aplicaçªo que utiliza a uma vez se estar a utilizar a lin funcionalidades desejadas para o trabalho pretendido e ser de fÆcil interpretaçªo. biblioteca SharperCV . Foi escolhida esta guagem de programaçªo C#, esta biblioteca biblioteca oferecer as
## 3.2 Característica da Câmara e da Lente
A câmara utilizada na realizaçªo 3.1 Ø ilustrada esta câmara e as esta câmara uma vez ser utilizada na indœstria, cumprir os Laboratório de Robótica do D e Tecnologia da Universidade de Coimbra, onde este desta dissertaçªo foi uma uEye UI suas características sªo apresentadas em baixo requisitos necessÆrios e existir no epartamento de Engenharia Mecânica da Fac trabalho foi realizado -1410-C , na figura . Foi escolhida uldade de CiŒncias .
Figura 3.1: Câmara uEye UI-1410-C.
<!-- image -->
Características da câmara uEye UI-1410-C:
- /checkbld Sensor CMOS 1/3'
- /checkbld Resoluçªo 640 (H) × 480 (V) píxeis
- /checkbld Tamanho dos píxeis 7.5 (H) × 7.5 (V) um
- /checkbld Formato VGA a cores
- /checkbld Velocidade 13 img/seg a mÆxima resoluçªo
- /checkbld Aquisiçªo selecionavel, que permite aumentar a velocidade
- /checkbld Conexªo Trigger externo
- /checkbld Obturador rotativo
- /checkbld Parâmetros seleccionÆveis atravØs de conexªo digital
- /checkbld Adaptador C
- /checkbld Conexªo digital USB 2.0
- /checkbld Tamanho 34 × 32 × 27.4 mm
- /checkbld Peso 62 g
A Lente utilizada na realizaçªo desta dissertaçªo Ø uma lente de ampliaçªo de 8×. Utilizou-se esta lente uma vez ser necessÆrio uma 'grande' ampliaçªo, dado que o robô nªo permitira colocar a câmara a uma grande distância da cena a adquirir. Esta lente revelou-se uma boa soluçªo constituindo uma boa relaçªo entre a distância câmara/cena e a Ærea focada pela câmara.
Um factor que se verifica nas lentes Ø, tendo em conta a relaçªo preço/qualidade, quando se aumenta a ampliaçªo da lente a distorçªo tambØm aumenta. Como se apresenta no capítulo quatro a distorçªo Ø um factor que afecta gravemente um sistema de visªo, tendo em conta estes dois factores nesta fase foi posto em causa a escolha da lente, uma vez que surgiu a hipótese de utilizar uma lente de menor ampliaçªo e adquirir vÆrias imagens construindo a cena a partir dessas imagens. No entanto, essa hipótese foi afastada dado que seria necessÆrio movimentar o robô para vÆrias posiçıes de modo a adquirir as imagens, o que aumentaria consideravelmente o tempo de ciclo.
## 3.3 Extracçªo de Informaçªo de uma Cena
Quando se fala em sistemas de visªo, estes devem ter associado software capaz de extrair a informaçªo presente na(s) cena(s) observada(s) pela(s) câmara(s), vulgarmente designado na literatura por Processamento de Imagem. Segundo Albuquerque [18] ' Processar uma imagem consiste em transformÆ-la sucessivamente com o objectivo de extrair mais facilmente a informaçªo nela contida '. Na realidade, Processamento de Imagem Ø apenas um dos passos que Ø necessÆrio percorrer para poder extrair a informaçªo referida em cima. De uma forma generalista, pode dividir este processo em trŒs passos, sªo eles:
- /head2right Processamento de imagem: Imagem à entrada /barb2right Imagem à saída
- /head2right AnÆlise de imagem: Imagem à entrada /barb2right Medidas à Saída
- /head2right Interpretaçªo de imagem: Imagem à entrada /barb2right Descriçªo de Alto Nível à Saída
Tabela 3.1: Etapas do Processo de Extracçªo de Informaçªo de uma Cena
| | ETAPA | ETAPA | DESCRI˙ˆO |
|----|-------------------------------------|------------------------------------------------|-------------------------------------------------------------|
| 1 | Processamento de Imagem | Aquisiçªo de imagem | Amostragem, armazenamento e compactaçªo |
| 2 | Processamento de Imagem | Melhoramento de imagem (' image enhancement ') | PrØ-tratamento digital da imagem |
| 3 | Processamento de Imagem | Segmentaçªo da informaçªo | Extracçªo dos objectos do 'fundo' da imagem |
| 4 | AnÆlise de Imagem ou Parametrizaçªo | AnÆlise de Imagem ou Parametrizaçªo | Determinaçªo de parâmetros dos objectos presentes na imagem |
| 5 | Interpretaçªo de Imagem | Interpretaçªo de Imagem | Classificaçªo do(s) objecto(s) |
De uma forma mais detalhada passa-se agora a descrever o Processo de Extracçªo de Informaçªo de uma Cena (apresentado na tabela 3.1). Neste processo, o primeiro passo a efectuar Ø a aquisiçªo de imagem [16], que consiste em uma câmara captar uma imagem real de uma cena. A câmara armazena a informaçªo (imagem capturada) temporariamente sob a forma de sinal analógico e, de seguida converte-a na sua forma digital. A imagem digital Ø discretizada espacialmente (ou seja em x e y ) originando uma matriz de pontos, píxeis , figura 3.2. Posto isto a informaçªo digital Ø enviada a um computador.
<!-- image -->
O passo seguinte Ø o melhoramento da imagem 'image enhancement', nesta etapa Ø realizada um prØ-tratamento da imagem, i.e. a imagem Ø corrigida de forma a ser conseguida uma identificaçªo mais fÆcil dos objectos na imagem. Para isso a imagem Ø filtrada, ou seja os
píxeis sªo processados e sªo aplicados algoritmos que utilizam na sua base matemÆtica a Convuloçªo, AnÆlise de Fourier e AnÆlise Estatística [18]. As operaçıes realizadas nesta etapa sªo a reduçªo de ruído e o aumento do contraste, entre outras.
Numa imagem podem co-existir vÆrios objectos, sendo que só parte deles sªo geralmente de interesse para a tarefa a realizar pelo robô, logo Ø necessÆrio localizar estes œltimos na imagem.
O passo seguinte a realizar Ø a segmentaçªo da informaçªo, nesta fase a imagem Ø discretizada em luminância (níveis de cinza). Esta transformaçªo em níveis de cinza visa colocar em evidŒncia as regiıes de interesse e reduzir a quantidade de informaçªo para um processamento de imagem mais rÆpido. As regiıes de interesse serªo posteriormente analisadas por algoritmos especializados em busca de informaçıes ditas de 'alto nível'.
Figura 3.3: (a) Imagem de uma cena real; (b) Imagem Binarizada.
<!-- image -->
Como se demonstra nas figuras 3.3 (a) e (b), a segunda representa a imagem segmentada da primeira. Esta segmentaçªo culminou em apenas dois tipos de regiıes, as regiıes pertencentes ao relevo da imagem ' foreground ' (regiªo a branco) e a regiªo do fundo da imagem ' background ' (regiªo a preto). Esta imagem, com dois níveis de cinza, Ø conhecida como imagem BinÆria. Devido a grandes facilidades na manipulaçªo deste tipo de imagem, principalmente porque se reduz significativamente a quantidade de dados, elas sªo frequentemente utilizadas no processo de tratamento da informaçªo.
Após o objecto estar localizado na imagem Ø necessÆrio parametriza-lo, i.e. extrair e calcular as características do objecto na imagem, sobre as quais se procederÆ à fase de interpretaçªo da imagem. Estas características extraídas da imagem podem ser pontos, curvas ou estruturas particulares de níveis de cinzento, entre outras explicitadas em [4, 16, 19, 20,
21]. As características do objecto na imagem sªo processadas e calculados parâmetros do objecto na imagem, tais como: Ærea, perímetro, forma, descriçªo estrutural, topologia, etc. De referir que as características do objecto na imagem sªo a base do controlo visual baseado na imagem. Na figura 3.4 encontram-se esquematizadas todas as operaçıes conducentes à extracçªo de informaçªo de uma imagem ou sequŒncia de imagens e, serve de base ao aparato experimental presente nesta dissertaçªo.
Figura 3.4: Resumo dos procedimentos de Visªo por Computador.
<!-- image -->
## 3.4 Software de Visªo Desenvolvido
O software desenvolvido para esta aplicaçªo utiliza a linguagem Microsoft Visual Studio 2005 - C# e o sistema operativo utilizado Ø o Windows Vista™ .
Este software consiste no processamento de imagem uma imagem, utilizando uma câmara interpretada utilizando funçıes da adquirida a informaçªo dita de 'alto nível', cor, posiçªo (x , y), e Ærea de contorno do objecto ou objectos presentes na imagem. A informaçªo extraída da imagem Ø utilizada para controlar um robô. Neste subcapítulo serÆ apresentado o software desenvolvido que se inicia com a aquisiçªo de uEye UI-1410-C , de seguida a imagem Ø analisada e biblioteca SharperCV . O objectivo Ø extrair da imagem ' IndustrialRobotCV '.
## 3.4.1 Aquisiçªo de Pontos
Como referido no subcapítulo 3 aquisiçªo, melhoramento da imagem e segmentaçªo. Para fazer a aquisiçªo de imagem Ø usada uma biblioteca disponibilizada pelo fabricante da câmara uEyeCamlib . Sªo captadas imagens de dimensªo (640 , 480). .3 o processamento de imagem divide uEye -se em trŒs etapas: , designada de
## O código principal passa-se a ilustrar:
int camera\_type = axuEyeCam1.GetCameraType();
axuEyeCam1.InitCamera(1);
axuEyeCam1.SetImageSize(640 , 480);
axuEyeCam1.SetColorMode(1); // bit depth = 24
<!-- image -->
(a)
<!-- image -->
(b)
Figura 3.5: a) Imagem Normal; b) Imagem Suavizada.
A imagem Ø armazenada e passa cvSmooth , presente na biblioteca imaginar, a partir da traduçªo da palavra Este processo normalmente desfoca a imagem, como se pode -se a realizar o seu melhoramento atravØs da funçªo SharperCV . Esta funçªo, como se pode logo a partida inglesa 'Smooth', tornarÆ a imagem mais suave ver na figura . 3.5, no entanto as
diferentes regiıes na imagem sªo evidenciadas. Na prÆtica esta funçªo aplica o modelo matemÆtico de um filtro gaussiano à imagem, i.e. faz uma mØdia ponderada pela equaçªo gaussiana, equaçªo 3.1.
O passo seguinte Ø a aplicaçªo da funçªo cvThreshold , esta funçªo reduz o ruído presente na imagem e transforma-a na sua escala de cinza ou seja segmenta a imagem. Neste caso irÆ segmentar a imagem em apenas dois níveis de cinza, por outras palavras binariza a imagem.
<!-- formula-not-decoded -->
Na prÆtica Ø quantificado o valor do brilho numa regiªo em torno de cada pixel (funçªo g , ver equaçªo 3.3 e 3.4), estando prØ-estabelecido um valor para o brilho (t) no qual valores superiores a este sªo considerados como façam parte do objecto, aparecendo na imagem binarizada a branco e, valores inferiores sªo considerados como façam parte do fundo da imagem, aparecendo na imagem binarizada a preto. Este valor estÆ prØ-estabelecido, no entanto o utilizador quando inicia o programa deve optimiza-lo, uma vez ele estar dependente da luminosidade incidente nos objectos (normalmente varia ao longo do dia) e da propriedade de reflexªo dos materiais que constituem os objectos.
<!-- formula-not-decoded -->
/g1
Após a binarizaçªo da imagem Ø utilizada a funçªo convex hull , esta Ø uma funçªo matemÆtica que neste caso Ø aplicada a um espaço bidimensional (imagem). Recorrendo a ela pretende-se estabelecer a fronteira externa de cada objecto na imagem. Esta funçªo permite gerar um polígono (geralmente irregular) que engloba todos os pontos pertencentes à regiªo considerada como fazendo parte de um objecto, por outras palavras o polígono gerado Ø a Ærea convexa mínima que engloba todos os pontos pertencentes ao respectivo objecto. Um exemplo deste tipo Ø ilustrado na figura 3.6. No entanto, a convexidade Ø analisada apenas numa pequena Ærea em torno do ponto a analisar, surgindo assim objectos com partes concavas.
Figura 3.6: Aplicaçªo da funçªo Convex Hull .
<!-- image -->
Após os contornos externos estar de facto o software faz Ø desenhar os pontos do contorno, valor do brilho (t) atØ que os objectos estejam bem definidos concreto tanto a imagem com os objectos definidos como a escolha do valor para o brilho (t) aparecem numa janela com o nome ' parte superior de imagem encontra valor do brilho (t) e no centro da imagem encontra objectos. em encontrados, eles sªo desenhados na imagem. O que permitindo ao utilizador optimizar o na imagem. No programa em contours '. Na figura 3.7 apresenta -se uma barra de deslocamento que permite optimizar o m-se definidos a rosa os contornos de dois -se esta janela, na
Figura 3. 7: Janela Contours do programa IndustrialRobotCV .
<!-- image -->
Este mØtodo apresenta algumas falhas, uma vez só considerar contornos externos, o objecto detectado por vezes apenas Ø uma aproximaçªo do objecto real. As falhas mais graves detectadas sªo quando os objectos contŒm furos, uma vez estes serem desprezados e tudo Ø considerado como fazendo parte do objecto. Situaçªo semelhante encontra-se quando na imagem figura um objecto a rodear outro. Neste caso o software considera os dois objectos como um só, o objecto exterior, mesmo no caso de existir espaço entre os objectos.
A funçªo descrita anteriormente, no software desenvolvido toma o nome de Vertexcountors , esta funçªo calcula como descrito anteriormente e 'escreve' numa variÆvel, de seu nome cs[i] : o nœmero de objectos, as coordenadas de cada ponto pertencente a cada objecto e a Ærea de cada objecto.
O centro de gravidade de cada objecto ( Xg , Yg ) Ø determinado com base na posiçªo dos pontos do contorno de cada objecto ( Xi , Y i ), calculando a mØdia desses pontos, equaçªo 3.5.
<!-- formula-not-decoded -->
Para extrair a cor do objecto Ø analisado o pixel do centro de gravidade e de mais alguns que o rodeiam, transformando a cor representada na imagem numa cor RGB. A cor real por vezes Ø difícil de determinar uma vez depender da luminosidade, sombras e capacidade reflectora dos materiais que constituem os objectos.
## CAP˝TULO QUATRO
## 4 Calibraçªo da Câmara e da Imagem
Com o objectivo de calibrar a câmara, começou-se por encontrar uma posiçªo e orientaçªo para o robô, onde a câmara conseguisse focar toda a Ærea pretendida e o plano da imagem na câmara fosse o mais paralelo possível à cena real que se pretendia adquirir. Uma vez a anÆlise desse paralelismo apenas ser realizada atravØs de uma anÆlise macroscópica a 'olho nu', estÆ desde logo sujeita a erros. Na prÆtica a orientaçªo escolhida mais nªo foi aquela que colocava a extremidade livre do robô paralela a sua própria base.
Uma grande questªo que surgiu ao longo da elaboraçªo deste trabalho foi o facto da lente utilizada introduzir uma grande distorçªo na imagem (ver figura 4.1). Uma vez a lente ser de grande ampliaçªo e a sua geometria ser de baixo rigor dimensional, afectando gravemente a qualidade final da imagem. Duas soluçıes logo à partida surgiram, adquirir uma nova lente de 'boa qualidade' ou resolver o problema utilizando software . Acabou-se por optar pela segunda soluçªo, uma vez que uma lente de 'boa qualidade' Ø extremamente cara.
Recorrendo a software e com vista a solucionar este problema, dois mØtodos foram estudados, implantados e testados, culminando na adopçªo de um deles.
## 4.1 Calibraçªo de Imagem (Primeiro MØtodo)
Neste primeiro mØtodo começou-se por calibrar a câmara em relaçªo ao canto superior esquerdo da imagem, atravØs de um padrªo xadrez. Escolheu-se este ponto, uma vez ser de fÆcil localizaçªo na imagem e de se poder criar facilmente uma relaçªo entre o referencial cena e o referencial do robô, o que facilita a calibraçªo do robô. Desde logo verificou-se uma grande distorçªo na imagem, denominado na literatura por efeito olho de peixe , como se pode visualizar na figura 4.1. De modo que a referŒncia a partir do canto superior esquerdo foi de um ajuste extremamente difícil, uma vez nªo se conseguir colocar com muito rigor o
referencial da imagem adquiria com as mesmas direcçıes do referencial cena. Na figura 4.1, as linhas representadas sªo na verdade linhas equidistantes de trajectória rectilínea, facilmente se observa que a distorçªo existente Ø superior nos cantos da imagem e vai diminuindo atØ ao seu centro. Um outro aspecto importante, que Ø de realçar, Ø a inexistŒncia de ortogonalidade entre as duas direcçıes, horizontal e vertical (x ; y), tendo como origem o ponto representado pelo canto superior esquerdo da imagem. De modo que para utilizar esse ponto como origem do referencial, ele foi definido na cena e na imagem e tentou-se alinha-lo na direcçªo vertical (y) com o ponto representado pelo canto inferior esquerdo, que estivesse na mesma direcçªo vertical na cena. Uma vez esse alinhamento ser feito macroscopicamente logo nesta fase existirÆ um erro.
Figura 4.1: Padrªo Xadrez utilizado na primeira calibraçªo.
<!-- image -->
O passo seguinte foi a implantaçªo do mØtodo que visa quantificar a distorçªo e estabelecer a relaçªo entre píxeis e milímetros. O padrªo xadrez foi construído fazendo linhas equidistantes, que distam 25 [mm] entre si. Uma vez o canto superior esquerdo ser considerado como origem do referencial cena, todas as coordenadas dos pontos que figuram na imagem sªo facilmente recolhidas. Considerando as linhas horizontais como direcçªo x e sentido da esquerda para a direita e, as linhas verticais como direcçªo y e sentido de cima para
baixo, foi realizada com base na imagem, a recolha de coordenadas em milímetros e tambØm as correspondentes em píxeis.
A imagem foi discretizada em intervalos na unidade [pixel] nas duas direcçıes e a informaçªo recolhida agrupou-se nos diversos intervalos, como se ilustra na tabela 4.1. A discretizaçªo da imagem foi feita em 20 intervalos segundo a direcçªo horizontal (x), para calibrar o eixo dos yy's, e em 15 intervalos segundo a direcçªo vertical (y), para calibrar o eixo dos xx's.
Tabela 4.1: Discretizaçªo da imagem [pixel].
| Intervalos na direcçªo x: | Intervalos na direcçªo x: |
|-----------------------------|-----------------------------|
| 1 | [0 ; 30] |
| 2 | ]30 ; 60] |
| 3 | ]60 ; 90] |
| 4 | ]90 ; 120] |
| 5 | ]120 ; 150] |
| 6 | ]150 ; 185] |
| 7 | ]185 ; 215] |
| 8 | ]215 ; 250] |
| 9 | ]250 ; 285] |
| 10 | ]285 ; 320] |
| 11 | ]320 ; 355] |
| 12 | ]355 ; 390] |
| 13 | ]390 ; 425] |
| 14 | ]425 ; 460] |
| 15 | ]460 ; 495] |
| 16 | ]495 ; 525] |
| 17 | ]525 ; 560] |
| 18 | ]560 ; 590] |
| 19 | ]590 ; 615] |
| 20 | ]615 ; 640] |
| Intervalos na direcçªo y: | Intervalos na direcçªo y: |
|-----------------------------|-----------------------------|
| 1 | [0 ; 20] |
| 2 | ]20 ; 50] |
| 3 | ]50 ; 80] |
| 4 | ]80 ; 110] |
| 5 | ]110 ; 145] |
| 6 | ]145 ; 180] |
| 7 | ]180 ; 215] |
| 8 | ]215 ; 250] |
| 9 | ]250 ; 280] |
| 10 | ]280 ; 315] |
| 11 | ]315 ; 350] |
| 12 | ]350 ; 385] |
| 13 | ]385 ; 420] |
| 14 | ]420 ; 450] |
| 15 | ]450 ; 480] |
Os intervalos em que a imagem foi discretizada como se pode ver nªo tŒm todos a mesma amplitude, este facto deve-se à dispersªo dos dados recolhidos. Para estabelecer os limites dos intervalos fez-se uma mØdia com os trŒs pontos pertencentes às extremidades dos intervalos.
Posto isto passou-se a calcular uma equaçªo matemÆtica para cada intervalo que representasse as relaçıes pretendidas, distorçªo e relaçªo píxeis milímetros.
## 4.1.1 Equaçıes MatemÆticas
VÆrios sªo os tipos de funçıes que podem representar um conjunto de pontos, como por exemplo funçªo exponencial, logarítmica, potencial, linear, polinomiais de vÆrias ordens, entre outras. No entanto, hÆ sempre uma que ajusta melhor cada conjunto de pontos. De modo a encontrar o tipo de regressªo que melhor ajusta esta situaçªo foram calculados vÆrios tipos de regressªo e o respectivo erro entre a equaçªo calculada e a situaçªo real.
GrÆfico 4.1: Calibraçªo do eixo y no intervalo x Є ]425 ; 460].
<!-- image -->
Foram calculados vÆrios tipos de regressªo para vÆrios conjuntos de pontos, no entanto neste documento apenas serÆ ilustrado para um conjunto de pontos. No grÆfico 4.1 estÆ representado a calibraçªo do eixo y num dos intervalos, como se pode ver, a Regressªo Potencial faz um pØssimo ajustamento relativamente aos outros tipos de regressªo representados.
Para este caso onde se efectuou a calibraçªo do eixo y, no intervalo onde x Є ]425 ; 460], foram calculadas quatro tipos de funçıes de ajustamento e calculou-se o erro mØdio que pode ser visualizado na tabela 4.2.
Tabela 4.2: Erros nas regressıes calculadas.
| Tipo de Regressªo: | Equaçªo: | Coeficiente de Correlaçªo (r 2 ) | Erro mØdio: |
|-----------------------------------|----------------------------------------------------------|------------------------------------|---------------|
| Regressªo Potencial: | y c = 4,3241y 0,7116 | 0,987 | 8,409132259 |
| Regressªo Linear: | y c = 0,7096y + 38,283 | 0,9997 | 1,391714286 |
| Regressªo Polinomial de 2' Ordem: | y c = -5E-05y 2 + 0,7322y + 36,417 | 0,9998 | 1,232589286 |
| Regressªo Polinomial de 4' Ordem: | y c = 8E-11y 4 + 6E-07y 3 - 0,0005y 2 + 0,8309y + 32,094 | 1 | 2,148795622 |
Da anÆlise da tabela 4.2 facilmente se conclui que o melhor ajustamento Ø realizado pela regressªo polinomial de segunda ordem, uma vez o coeficiente de correlaçªo ser muito próximo de um e o erro mØdio ser inferior a qualquer outro tipo de ajustamento analisado. Tal facto jÆ era esperado uma vez a distorçªo introduzida, em cada intervalo, aparentar a descriçªo de uma forma circular.
AnÆlise anÆloga foi efectuada para os outros intervalos e tambØm na direcçªo vertical (y), sendo os resultados obtidos em tudo semelhantes ao jÆ referido em cima. Passa-se a ilustrar as equaçıes calculadas resultantes da anÆlise efectuada nas tabelas 4.3 e 4.4.
Tabela 4.3: Equaçıes de calibraçªo na direcçªo vertical.
| Intervalos na direcçªo x [pixel]: | Intervalos na direcçªo x [pixel]: | Equaçªo: | Erro mØdio [mm]: |
|-------------------------------------|-------------------------------------|------------------------------------|--------------------|
| 1 | [0 ; 30] | y c = -7E-05x 2 + 0,8201x + 7,5919 | 0,979685333 |
| 2 | ]30 ; 60] | y c = -6E-05x 2 + 0,8022x + 11,952 | 0,946632 |
| 3 | ]60 ; 90] | y c = -7E-05x 2 + 0,7966x + 14,992 | 1,096307333 |
| 4 | ]90 ; 120] | y c = -6E-05x 2 + 0,7817x + 18,407 | 1,35428 |
| 5 | ]120 ; 150] | y c = -7E-05y 2 + 0,775y + 22,002 | 1,205010667 |
| 6 | ]150 ; 185] | y c = -8E-05y 2 + 0,7704y + 24,398 | 1,254714667 |
| 7 | ]185 ; 215] | y c = -7E-05y 2 + 0,7582y + 27,42 | 1,414704 |
| 8 | ]215 ; 250] | y c = -5E-05y 2 + 0,7378y + 31,501 | 1,153732143 |
| 9 | ]250 ; 285] | y c = -5E-05y 2 + 0,7333y + 33,35 | 1,112346429 |
| 10 | ]285 ; 320] | y c = -8E-05y 2 + 0,7421y + 34,386 | 0,933301538 |
| 11 | ]320 ; 355] | y c = -5E-05y 2 + 0,7285y + 36,031 | 0,976907143 |
| 12 | ]355 ; 390] | y c = -5E-05y 2 + 0,7287y + 36,808 | 1,043807143 |
| 13 | ]390 ; 425] | y c = -4E-05y 2 + 0,7245y + 36,986 | 1,038884286 |
| 14 | ]425 ; 460] | y c = -5E-05y 2 + 0,7322y + 36,417 | 1,232589286 |
| 15 | ]460 ; 495] | y c = -4E-05y 2 + 0,7323y + 36,306 | 1,072897143 |
| 16 | ]495 ; 525] | y c = -4E-05y 2 + 0,739y + 35,468 | 1,202737143 |
|------|---------------|-------------------------------------|---------------|
| 17 | ]525 ; 560] | y c = -4E-05y 2 + 0,747y + 34,203 | 1,05048 |
| 18 | ]560 ; 590] | y c = -5E-05y 2 + 0,762y + 32,007 | 0,998860714 |
| 19 | ]590 ; 615] | y c = -4E-05y 2 + 0,7662y + 30,707 | 1,048074286 |
| 20 | ]615 ; 640] | y c = -4E-05y 2 + 0,7662y + 30,707 | 2,474211429 |
No intervalo 20, uma vez a recolha de pontos apenas ter permitido adquirir sete pontos, verificou-se que estes nªo eram suficientes. Tentou-se corrigir a distorçªo e a conversªo de píxeis em milímetros, com a equaçªo obtida do intervalo 19 o que se verificou ser mais viÆvel que as equaçıes calculadas com os sete pontos pertencentes ao intervalo.
Tabela 4.4: Equaçıes de calibraçªo na direcçªo horizontal.
| Intervalos na direcçªo y [pixel]: | Intervalos na direcçªo y [pixel]: | Equaçªo: | Erro mØdio [mm]: |
|-------------------------------------|-------------------------------------|------------------------------------|--------------------|
| 1 | [0 ; 20] | x c = 1,4647x 0,9064 | 0,929187484 |
| 2 | ]20 ; 50] | x c = -6E-05x 2 + 0,8025x + 15,594 | 2,649186 |
| 3 | ]50 ; 80] | x c = -6E-05x 2 + 0,7916x + 18,112 | 2,744973 |
| 4 | ]80 ; 110] | x c = -6E-05x 2 + 0,7865x + 20,04 | 2,965642 |
| 5 | ]110 ; 145] | x c = -5E-05x 2 + 0,7759x + 22,223 | 3,1505875 |
| 6 | ]145 ; 180] | x c = -5E-05x 2 + 0,7706x + 23,294 | 3,1000925 |
| 7 | ]180 ; 215] | x c = -8E-05x 2 + 0,7827x + 22,817 | 2,847954737 |
| 8 | ]215 ; 250] | x c = -9E-05x 2 + 0,7785x + 23,695 | 2,661156842 |
| 9 | ]250 ; 280] | x c = -9E-05x 2 + 0,7803x + 22,571 | 2,550101053 |
| 10 | ]280 ; 315] | x c = -8E-05x 2 + 0,7781x + 22,254 | 2,881631579 |
| 11 | ]315 ; 350] | x c = -8E-05x 2 + 0,7793x + 21,246 | 2,852350526 |
| 12 | ]350 ; 385] | x c = -8E-05x 2 + 0,7806x + 19,71 | 2,723174737 |
| 13 | ]385 ; 420] | x c = -8E-05x 2 + 0,7834x + 17,744 | 2,508675789 |
| 14 | ]420 ; 450] | x c = -8E-05x 2 + 0,7893x + 15,015 | 2,380465263 |
| 15 | ]450 ; 480] | x c = -5E-05x 2 + 0,7824x + 12,935 | 2,976828947 |
Na calibraçªo do eixo horizontal x, no intervalo 1, y Є [0 ; 20], devido hÆ existŒncia de poucos pontos a regressªo potencial revelou-se uma melhor soluçªo.
Procedeu-se ao desenvolvimento de software , em Microsoft Visual C# ' Camera\_Calibration.cs ', no qual foram implantadas as equaçıes calculadas, este subprograma recebe coordenadas em pixØis do referencial imagem (imagem com distorçªo) e retornas em coordenadas do referencial cena em milímetros. Este subprograma foi incorporado no software IndustrialRobotCV , o que permitiu efectuar testes e verificar o erro cometido segundo esta abordagem.
## 4.2 Calibraçªo de Imagem (Segundo MØtodo)
O segundo mØtodo consiste na incorporaçªo de uma ferramenta jÆ existente e disponível na internet [22]. Esta ferramenta foi alvo de teste em muitas aplicaçıes e de um artigo científico [23], o que desde logo lhe conferiu expectativas harmoniosas.
Como no mØtodo anterior, inicialmente procurou-se encontrar uma posiçªo para o robô adquirir imagem. Esta posiçªo Ø ligeiramente diferente da posiçªo do mØtodo anterior, uma vez que neste caso o ponto de origem do referencial imagem Ø o centro da imagem. Como Ø óbvio poder-se-ia utilizar o mesmo ponto para o robô, no entanto quando se procedesse hÆ calibraçªo do robô a matriz rotaçªo seria mais complexa do que um simples factor de escala. Uma outra razªo pela qual se decidiu procurar outra posiçªo para o robô foi para facilitar a identificaçªo do centro da imagem na cena. Para realizar essa identificaçªo utilizou-se uma folha xadrez, que se ilustra na figura 4.2 e, desenvolveu-se um pequeno software que permitisse identificar o centro na imagem e as direcçıes que o referencial imagem deve seguir.
Para este caso escolheu-se como ponto de referŒncia (origem do referencial) o centro da imagem uma vez este ser dos pontos onde existe menos distorçªo. E como se descreverÆ mais adiante neste documento, a ferramenta utilizada reconstrói a imagem a partir do seu centro, pelo que Ø importante colocar o centro do referencial num ponto que nªo irÆ ter alteraçªo na distribuiçªo da imagem.
Figura 4.2: Padrªo xadrez utilizado no segundo mØtodo de calibraçªo.
<!-- image -->
Para definir o ponto de aquisiçªo de imagem, inicialmente o padrªo xadrez foi orientado com a orientaçªo do robô, fazendo coincidir as direcçıes dos referenciais imagem, cena e robô. De seguida, fixou-se o padrªo xadrez à mesa com a orientaçªo estabelecida. Posto isto passou-se a procurar uma distância entre a mesa e a câmara, em que a imagem captada foca-se toda a Ærea pretendia. Encontrada essa distância utilizou-se o software ilustrado na figura 4.3, para fazer coincidir os referenciais jÆ mencionados, para isso o cruzamento das linhas a vermelho definem o centro da imagem, logo força-se que o ponto definido por esse cruzamento projecte o ponto de origem do referencial cena. Para encontrar a orientaçªo correcta fez-se coincidir as linhas a vermelho com os lados dos quadrados que estªo representados no padrªo, como se apresenta na figura 4.3.
A posiçªo e a orientaçªo encontrada para esta situaçªo foram:
X = - 68,901; Rx = 180,00;
Y = - 623,780; Ry = 0,00;
Z = - 83,036; Rz = - 23,66.
Figura 4.3: Software para encontrar e orientar o referencial imagem.
<!-- image -->
Como jÆ foi referido a imagem recolhida tem o efeito olho de peixe bastante acentuado, a ferramenta utilizada neste mØtodo contempla reduzir esse efeito. A ferramenta denominada Camera Calibration Toolbox for Matlab tem como princípio, a distorçªo distribui-se uniformemente na imagem de uma forma radial, como se ilustra na figura 4.4. Na mesma
figura como se pode ver hÆ uma referŒncia a uma distorçªo tangencial, na realidade a distorçªo Ø radial e tangencial, no entanto a distorçªo tangencial Ø praticamente desprezÆvel face a distorçªo radial.
Figura 4.4: Modelo de distorçªo (radial e tangencial) da ferramenta Camera Calibration Toolbox for Matlab .
<!-- image -->
## 4.2.1 Determinaçªo dos parâmetros de calibraçªo
Para operar com a ferramenta ( Camera Calibration Toolbox for Matlab ) durante esta fase de determinaçªo dos parâmetros de calibraçªo utiliza-se o software na sua forma 'original', i.e. operando directamente com o software MatLab .
Inicialmente, com o robô colocado na posiçªo da captaçªo de imagem, adquire-se uma imagem da cena. Estando apenas presente na cena o padrªo xadrez, uma imagem típica Ø ilustrada na figura 4.2. Esta fase Ø realizada pelo software IndustrialRobotCV .
De seguida passa-se a utilizar a ferramenta MatLab (designada vulgarmente por toolbox ), mais precisamente o subprograma com o nome calib\_gui.m . Durante a utilizaçªo desta funcionalidade da toolbox , serÆ necessÆrio carregar a imagem no programa, definir os eixos coordenados na imagem (apenas vÆlidos para esta abordagem), definir a Ærea da imagem a analisar e fornecer alguns parâmetros. Os parâmetros a fornecer sªo o nœmero de pontos a
detectar na imagem, as dimensıes de um rectângulo que define uma pequena Ærea próxima de cada ponto a ser detectado e a estimaçªo do factor de distorçªo. A pequena Ærea definida pelo rectângulo visa ser analisada cuidadosamente e dentro dela encontrado o ponto que se pretende saber as suas coordenadas. O factor de distorçªo Ø dado e optimizado manualmente pelo utilizador. Na figura 4.5 ilustra-se uma imagem a partir da qual foram extraídos os parâmetros de calibraçªo.
Figura 4.5: Imagem utilizada para estimar os parâmetros de calibraçªo.
<!-- image -->
Com todos estes dados a imagem Ø processada e sªo adquiridos pontos presentes na imagem, esses pontos sªo estabelecidos pela intersecçªo dos cantos dos quadrados no papel xadrez. As coordenadas desses pontos sªo processados e sªo calculados alguns parâmetros. Os parâmetros de interesse para a situaçªo em causa sªo matrizes que se designam por distância focal (fc), ponto principal (cc), ângulo entre os eixos coordenados na imagem (alpha\_c) e distorçªo (kc). Todos os parâmetros calculados sªo armazenados num ficheiro com o nome Calib\_Results.m .
Uma explicaçªo exaustiva acerca do modo de operar com a toolbox ' Camera Calibration Toolbox for Matlab ' encontra-se descrita em [22] e o mØtodo matemÆtico encontra-se descrito extensivamente em [24].
## Para esta situaçªo resultou os seguintes dados:
```
%-- Focal length: fc = [ 1426.107141691488800 ; %-- Principal point: cc = [ 319.500000000000000 ; 239.500000000000000 ]; %-- Skew coefficient: alpha_c = 0.000000000000000; %-- Distortion coefficients: kc = [ -1.655003412331441 ; 3.786115523168508 ; 0.021876887169198 ; 0.018670727080197 ; 0.000000000000000 ]; 1429.227085380307500 ];
```
## 4.2.2 Reconstruçªo da imagem sem distorçªo
Numa segunda fase, e esta serÆ sempre efectuada desde que se pretenda adquirir informaçªo da imagem, passa undistort\_image.m . Esta funçªo o que significativamente o efeito olho de peixe adquirida com o efeito olho de peixe primeira aplicando, o mØtodo de reduçªo do -se a 'correr' o subprograma da toolbox faz Ø reconstruir a imagem, atenuando , na figura 4.6 a) demonstra , na figura 4.6 b) demonstra-se a imagem reconstruída da efeito olho de peixe . com o nome de -lhe -se uma imagem
Figura 4.6: (a) Imagem adquirida com efeito olho de peixe ; (b) Imagem reconstruída segundo o mØtodo de reduçªo do efeito olho de peixe .
<!-- image -->
Este mØtodo utiliza os parâmetros anteriormente calculados Calib\_Results.m , e reconstrói a imagem pixel por pixel , guardados no ficheiro .
Uma vez este mØtodo ser seja sempre que se adquire imagem Ø ser reconstruída. É de todo o interesse automatizar 'chamado' muitas vezes pelo software IndustrialRobotCV necessÆrio que ela seja submetida a este processo para o mØtodo e incorpora , ou -lo no software
IndustrialRobotCV . Para alcançar este objectivo a toolbox foi modificada e incorporou-se no software principal um objecto COM do MatLab que permite comunicar com ele de uma forma automÆtica, sem que o utilizador do software tenha de interagir com o MatLab .
De uma forma genØrica e resumida apresenta-se na figura 4.7 um esquema com os passos seguidos pelo software, sendo que apenas os dois primeiros passos sªo abordados no presente capítulo (Calibraçªo de Imagem) e o terceiro passo Ø abordado no terceiro capítulo (Extracçªo de Informaçªo de uma Cena).
Figura 4.7: Esquema representativo da Calibraçªo de Imagem.
<!-- image -->
## 4.2.3 Conversªo de Coordenadas
Quando se cria uma nova imagem sem distorçªo, estÆ-se a criar juntamente um novo referencial imagem, em que a unidade Ø o pixel. Os pontos presentes na imagem em pixØis necessitam de ser convertidos no referencial cena, expresso em milímetros. Para efectuar essa conversªo Ø estimado o valor de um pixel em milímetros ( constante de conversªo ). No entanto, devido à existŒncia de alguma distorçªo na nova imagem e verificar-se que essa distorçªo varia de quadrante para quadrante, estima-se uma constante de conversªo para cada quadrante e para cada direcçªo do referencial imagem, ou seja, sªo calculadas duas constantes de conversªo para cada quadrante, uma para a direcçªo x (C q,x ) e outra para a direcçªo y (Cq,y ).
O cÆlculo das constantes de conversªo requer a aquisiçªo das coordenadas, no referencial imagem, de um conjunto de pontos em cada quadrante (x [pix] ; y [pix] ). Esses pontos devem estar distribuídos por todo, respectivo, quadrante (q). As coordenadas dos respectivos pontos no referencial cena devem igualmente ser recolhidas (x [mm] ; y [mm] ). Com esses dados sªo calculadas as mØdias dos pontos recolhidos por quadrante e por direcçªo, segundo o referencial imagem (em píxeis, equaçıes 4.2 e 4.4) ( /g1837 /g3044 ,/g3051 [/g3043/g3036/g3051] e /g1837 /g3044,/g3052 [/g3043/g3036/g3051] ) e segundo o referencial cena (em milímetros, equaçıes 4.1 e 4.3) ( /g1837 /g3044 ,/g3051 [/g3040/g3040] e /g1837 /g3044 ,/g3052 [/g3040/g3040] ). Dividindo o valor de cada constante representante da mØdia de pontos por quadrante e por direcçªo no referencial cena, pelo valor da respectiva constante da mØdia de pontos por quadrante e por direcçªo no referencial imagem obtŒm-se as oitos constantes de conversªo (equaçıes 4.5 e 4.6).
<!-- formula-not-decoded -->
<!-- formula-not-decoded -->
<!-- formula-not-decoded -->
<!-- formula-not-decoded -->
<!-- formula-not-decoded -->
<!-- formula-not-decoded -->
Para estimar o valor das constantes de conversªo foram adquiridos vinte pontos (n) em cada quadrante, distribuídos aleatoriamente por cada um deles.
Para efectuar a conversªo multiplica-se simplesmente o valor de cada coordenada, de cada ponto pretendido, pela respectiva constante de conversªo .
## 4.3 Comparaçªo dos MØtodos de Calibraçªo de Imagem
Nos testes realizados segundo o primeiro mØtodo de calibraçªo de imagem verificou-se que o erro cometido variava bastante de ponto para ponto. No entanto nªo foi encontrada qualquer relaçªo entre os erros cometidos de ponto para ponto, uma vez que eles provŒm de fontes bastante distintas. Entre outras evidenciam-se a dificuldade de colocar a câmara numa posiçªo onde a CCD estÆ rigorosamente paralela ao plano de aquisiçªo de imagem, o efeito olho de peixe introduzido pela lente, que nªo Ø corrigido totalmente como referido anteriormente. Outro factor Ø a altura dos objectos. Quando estes aparecem na imagem afastados do seu centro leva a que eles nªo sejam bem representados na imagem, i.e. nªo aparecem rebatidos na sua vista em planta, as suas faces laterais tambØm aparecem representadas, esta situaçªo ilustra-se na figura 4.8. O que leva o software a considerar o contorno maior do que realmente ele Ø, por sua vez, a estimaçªo do centro de massa do objecto Ø calculada com base em alguns pontos errados o que leva a conter erros. Estes erros serªo mais pronunciados, quanto mais alto for o objecto e quanto mais afastado ele estiver do centro da imagem. A sombra do objecto por vezes tambØm Ø considerada como fazendo parte dele, ocorrendo um erro semelhante ao apresentado anteriormente.
Figura 4.8: a) Imagem captada pela câmara; b) Imagem a definir os contornos dos objectos (contornos a rosa).
<!-- image -->
É ainda de referir, um factor de grande importância que tem vindo a ser alvo de estudo por parte de alguns investigadores, designado na literatura por ' absolute accuracy ' [25]. Este factor, de uma forma breve, diz respeito à posiçªo final atingida pelo robô quando Ø solicitado o seu movimento, essa posiçªo nem sempre Ø atingida com a precisªo desejada. Sendo este erro em muitas aplicaçıes bastante significativo.
Este mØtodo permitiu erros inferiores a nove milímetros o que nªo sendo considerado um mau resultado, para a aplicaçªo em questªo Ø excessivo. Para alØm disso este mØtodo nªo Ø muito versÆtil, veja-se caso se pretenda altera-se a distância entre a câmara e o plano de trabalho serÆ necessÆrio recalcular todas as equaçıes e implanta-las novamente no subprograma de calibraçªo, outra soluçªo seria construir software que fizesse todo isto autonomamente o que seria bastante complexo.
Em relaçªo ao segundo mØtodo, este apresentou um erro mÆximo bastante inferior ao mØtodo anterior, de apenas dois milímetros. O que se considera para a aplicaçªo em questªo uma soluçªo aceitÆvel. O processo de calibraçªo de imagem embora envolva um mØtodo bastante mais complexo que o primeiro, esse facto nªo se traduz num aumento excessivo do tempo de cÆlculo. Este mØtodo Ø bastante mais versÆtil que o anterior, analise-se a mesma questªo proposta anteriormente, em que se altera a distância entre a câmara e o plano de trabalho neste caso basta recalcular os parâmetros de calibraçªo o que tomarÆ apenas alguns minutos, ou caso se pretenda evoluir o software , facilmente se incorporam vÆrios ficheiros com os parâmetros de calibraçªo dispondo assim de vÆrios planos de trabalho. Uma particularidade deste mØtodo, que qualquer Engenheiro valoriza, Ø o facto de ele seguir uma abordagem com significado físico e nªo apenas matemÆtico, como Ø o caso do primeiro mØtodo.
De modo que se considera o segundo mØtodo uma soluçªo melhor que o primeiro, sendo este o mØtodo utilizado na aplicaçªo desenvolvida.
De referir ainda, que neste segundo mØtodo foi implantado uma metodologia de reduçªo da imprecisªo do robô ( absolute accuracy ). Uma vez se ter verificado que essa imprecisªo aumentava com o aumento da distância a um ponto de referŒncia, o presente mØtodo corrige essa imprecisªo linearmente, i.e. dividindo a cena, no referencial cena por quadrantes e registando em que pontos sªo cometidos erros de um milímetro. O mØtodo incrementa entre cada dois pontos recolhidos um milímetro de forma linear, às coordenadas do ponto pretendido. Para melhor entender esta correcçªo ilustra-se no grÆfico 4.2 os valores a incrementar no terceiro quadrante segundo a direcçªo horizontal x.
GrÆfico 4.2: Correcçªo da imprecisªo do robô segundo a direcçªo x no 3' quadrante.
<!-- image -->
## CAP˝TULO CINCO
## 5 Robô Industrial
A aplicaçªo desenvolvida como jÆ foi descrito anteriormente tem dois modos de operaçªo. Um visa efectuar operaçıes de manipulaçªo ' pick-and-place ' em objectos e o outro visa reproduzir contornos de objectos.
Para levar a cabo esta aplicaçªo o material utilizado foi: um robô industrial, uma câmara CMOS, uma lente, uma vÆlvula de vÆcuo, uma ventosa (utilizada para agarrar os objectos) e uma ferramenta composta por um lÆpis com um sistema de mola, para conferir alguma flexibilidade ao sistema a desenhar (utilizado para reproduzir contornos). Apresenta-se na figura 5.1 a cØlula robótica a operar no modo de reproduçªo de contornos.
Figura 5.1: CØlula robótica (modo representaçªo de contornos).
<!-- image -->
## 5.1 Comunicaçªo
O sistema desenvolvido Ø composto por um software que gere todo o sistema ' IndustrialRobotCV ', ou seja, comunica com a câmara e com o robô partilhando informaçªo. Esse software apresenta uma interface bastante amigÆvel para o utilizador. A comunicaçªo com o robô Ø feita recorrendo a uma Data Link Library (DLL) desenvolvida no Laboratório de Robótica Industrial do Departamento de Engenharia Mecânica da Universidade de Coimbra e que tem como base o protocolo de comunicaçªo TCP/IP (Ethernet), permitindo controlar o robô remotamente.
A comunicaçªo com a câmara tambØm Ø feita recorrendo a uma DLL que o fabricante disponibiliza, mas neste caso a transferŒncia de dados Ø feita atravØs de um cabo USB, na figura 5.2 ilustra-se os modos de comunicaçªo entre o hardware utilizado.
Figura 5.2: Comunicaçªo utilizada na aplicaçªo.
<!-- image -->
A aplicaçªo desenvolvida recorre a vÆrios objectos e softwares para atingir um fim. Utiliza a biblioteca sharpercv para fazer o 'tratamento' de imagem, a uEyecamlib para extrair imagem da câmara, a MotomanLib para comunicar com o robô e ainda, utiliza um objecto COM do MatLab que permite comunicar com a aplicaçªo MatLab , ou seja iniciar o MatLab e correr comandos, que irªo ser œteis para a calibraçªo de imagem. Um esquema da utilizaçªo dessas ferramentas pelo software principal ilustra-se na figura 5.3.
Figura 5.3: Esquema representativo dos objectos e subprogramas utilizados nesta aplicaçªo.
<!-- image -->
## 5.2 Envio de Pontos
No modo de detecçªo de trajectórias, o software desenvolvido gera um ficheiro JBI com o código do robô. Neste caso, força-se o robô a movimentar-se ao longo dos pontos predefinidos. Passa-se a apresentar um exemplo típico de um ficheiro JBI a enviar ao robô:
```
/JOB //NAME MOVI //POS ///NPOS 0,0,0,1,0,0 ///TOOL 0 ///POSTYPE ROBOT ///RECTAN ///RCONF 0,0,0,0,0,0,0,0 P0001= 400,0,450,0,0,0 … //INST ///DATE 2008/12/16 11:26 ///ATTR SC,RW ///GROUP1 RB1 NOP MOVJ P001 VJ=5.00 … END
```
No modo de apanhar peças ' pick-and-place ', sªo enviadas remotamente para o robô as coordenadas que ele necessita para se movimentar e a velocidade com que se pretende que ele efectue esse movimento. O robô procede de imediato à realizaçªo desse movimento.
Demonstra-se de seguida um exemplo do código utilizado para movimentar o robô:
```
robot.Movj_.X = 213; robot.Movj_.Y = -700; robot.Movj_.Z = -400; robot.Movj_.RX = 180; robot.Movj_.RY = 0; robot.Movj_.RZ = 110; robot.Movj_.Speed = 5; ; robot.OnMovj(robot.Movj_);
```
Para controlar o vÆcuo, utiliza-se uma vÆlvula de vÆcuo que Ø controlada pelo Controlador do Robô, para controlar a vÆlvula a partir do computador Ø necessÆrio enviar a ordem para o Controlador e este por sua vez, enviar o sinal para ligar a vÆlvula de vÆcuo. Para promover a criaçªo do sinal no controlador Ø lhe enviado a partir do software ' IndustrialRobotCV ' uma variÆvel que Ø memorizadas na memória do Controlador. Ao mesmo tempo o Controlador estÆ a 'correr' um programa, neste estªo a ser verificadas as posiçıes de memória em que o Controlador guarda os dados enviados pelo software de controlo, quando nessas posiçıes de memória figura um determinado valor prØ-estabelecido o controlador emite o sinal e a vÆlvula liga o vÆcuo. Para desligar o vÆcuo Ø em tudo semelhante ao anterior apenas difere no valor que a variÆvel enviada ao Controlador toma.
Apresenta-se de seguida um excerto do código que estÆ a correr no Controlador do robô:
```
JUMP *LABEL31 IF I001<>19821 DOUT OT#(1) OFF DOUT OT#(2) OFF SET I001 0 *LABEL31 JUMP *LABEL4 IF I001<>1981 DOUT OT#(2) ON SET I001 0 *LABEL4
```
Apresenta-se tambØm o código do software IndustrialRobotCV que envia a variÆvel ao Controlador do robô:
```
write_stat = robot.WriteInt("1", 1981);
```
## 5.3 Ordenaçªo e Reduçªo de Pontos
Para reproduzir contornos Ø necessÆrio ordenar os pontos provenientes da Extracçªo de Informaçªo da Imagem. Este facto deve-se hÆ necessidade de enviar os pontos ao robô segundo a ordem que se pretende que este os percorra. Uma vez eles estarem armazenados de uma forma desordenada na variÆvel resultante da Extracçªo de Informaçªo da Imagem, cs[] , o software carece deste procedimento.
Para ordenar os pontos foi desenvolvido um algoritmo que se passa a descrever. Os pontos pertencentes a cada objecto sªo ordenados consoante o operador escolhe o objecto, sendo cada objecto ordenado individualmente. Para cada objecto o primeiro ponto da matriz de pontos proveniente do passo de Obtençªo dos Pontos ( xi ; yi ) Ø estabelecido como primeiro ponto na matriz de pontos do passo Ordenaçªo de Pontos ( xestab. ; yestab. ). O segundo ponto Ø calculado pela distância mínima ao primeiro. A distância mínima Ø calculada pela equaçªo 3.6. Os pontos seguintes sªo calculados como o segundo ponto, ou seja pelo calculo da distância mínima ao œltimo ponto considerado.
<!-- formula-not-decoded -->
Deve ser feita uma reduçªo dos pontos pertencentes ao contorno do objecto. Esta reduçªo de pontos deve-se ao facto da aquisiçªo de imagem resultarem demasiados pontos. Como se verÆ mais adiante, se o nœmero de pontos enviados ao robô for muito elevado e caso isso aconteça eles estariam muito próximos uns dos outros, o tempo de ciclo aumentaria substancialmente, bem como algumas das funçıes que o robô disponibiliza para definir trajectórias deixariam de fazer sentido.
A fim de efectuar a reduçªo de pontos Ø estabelecido uma distância mínima entre pontos, sendo apenas considerados aqueles que pertencem à extremidade dessa distância. Aqueles que pertencem a distâncias inferior sªo desprezados. Uma vez encontrado o ponto com a distância igual ou ligeiramente superior à distância mínima estabelecida, ele Ø copiado para a matriz de pontos a enviar ao robô. De referir que o primeiro ponto tambØm Ø copiado para esta matriz. De seguida o processo Ø repetido, mas neste caso o cÆlculo Ø efectuado para os pontos seguintes em relaçªo ao œltimo calculado, que cumpre a distância mínima. O processo de cÆlculo Ø repetido um nœmero suficiente de vezes atØ que todos os pontos sejam analisados e sejam encontrados aqueles que de facto cumprem a distância mínima.
Para implantar este mØtodo estipulou-se que cada objecto seria sempre representado por um nœmero de pontos nunca superior a 120 e as distâncias poderiam variar de objecto para objecto. Ou seja Ø estipulado uma distância mínima de referŒncia entre pontos de 5 píxeis e encontrada uma nova matriz de pontos, posto isto Ø verificado a condiçªo de 120 pontos. Caso a condiçªo nªo seja satisfeita Ø incrementado mais um milímetro à distância de mínima de referŒncia e recalculada uma nova matriz de pontos, o processo Ø repetido sucessivamente atØ a condiçªo ser satisfeita.
## 5.4 Tipos de Movimentos do Robô
Para movimentar o robô, a sua programaçªo disponibiliza quatro formas diferentes, Movimentos Lineares (MOVL), Movimentos Circulares (MOVC), Movimentos Spline (MOVS) e Movimentos de Junta (MOVJ).
Os Movimentos Lineares correspondem a trajectórias rectas, que unem o ponto em que o robô se encontra e o ponto seguinte a atingir. Sendo o 'caminho' mais curto 4 a percorrer pelo robô. Na figura 5.4 Ø ilustrado um movimento deste tipo no deslocamento do ponto P3 para o ponto P4.
Os Movimentos Circulares sªo movimentos em arco, em que a extremidade livre da ferramenta do robô se desloca segundo uma trajectória que tem a forma de um arco bem definido. Neste tipo de movimento sªo necessÆrios trŒs pontos no mínimo para ser possível aplicar o mØtodo matemÆtico de interpolaçªo circular, na aplicaçªo do mØtodo e com base nos pontos fornecidos Ø estabelecido se o arco Ø côncavo ou convexo.
Um inconveniente desta funçªo Ø o facto de no caso dos trŒs pontos estarem alinhados o mØtodo de interpolaçªo circular nªo pode ser aplicado e ocorre um erro, pelo que quando se utiliza esta funçªo tem que se garantir que os trŒs pontos correspondentes a esta instruçªo nªo estªo segundo a mesma recta. Outra imposiçªo desta funçªo Ø a distância entre os dois primeiros pontos, esta deve ser a mesma que a distância entre os dois œltimos. Na figura 5.3 nos pontos P1, P2 e P3 sªo utilizados movimentos circulares, como se pode verificar os movimentos que descrevem arcos sªo apenas os dois œltimos, sendo o primeiro necessÆrio ao cÆlculo no entanto, realiza um movimento rectilíneo. Isto verifica-se caso o robô esteja e iniciar o seu movimento ou seja precedido de um movimento linear ou de junta. Caso existam mais de trŒs deslocamentos adjacentes onde se utilizem movimentos circulares, esses movimentos descreverªo todos semi-arcos.
4 'Caminho mais curto' neste caso representa a distância mínima percorrida pela extremidade livre da ferramenta e nªo a rotaçªo das juntas do robô.
Figura 5.4: Movimento Circular nos pontos P1-P2-P3 e Movimento Linear para P4.
<!-- image -->
Movimentos Spline sªo movimentos nos quais Ø aplicado a interpolaçªo polinomial de segundo grau para calcular a sua trajectória. Esta descreve uma parÆbola e como no movimento circular, neste caso tambØm sªo necessÆrios trŒs pontos no mínimo para aplicar este mØtodo. Neste caso nªo hÆ o problema dos pontos estarem alinhados uma vez que caso isto ocorra o movimento serÆ rectilíneo. No entanto, a limitaçªo da distância entre pontos neste caso tambØm Ø igualmente vÆlida. Na figura 5.5 sªo utilizados movimentos Spline para movimentar o robô para os pontos P1, P2,P3, P4 e P5.
Figura 5.5: Movimento Spline nos pontos P1-P2-P3-P4-P5.
<!-- image -->
Movimentos de Junta sªo os movimentos que minimizam a rotaçªo das juntas do robô. Neste movimento muitas vezes o utilizador nªo tem a noçªo de qual serÆ a trajectória da extremidade livre da ferramenta do robô, de modo que este tipo de movimento Ø utilizado essencialmente em movimentaçıes de aproximaçªo.
## 5.5 Estudo do Tipo de Movimento a Utilizar
Nos movimentos de aproximaçªo (movimento inicial) e afastamento (movimento final) sªo utilizados Movimentos de Junta uma vez serem os movimentos mais rÆpidos e mais fÆceis de realizar pelo robô. Pois estes nªo sªo afectados pelos limites de rotaçªo das juntas do robô no espaço de trabalho deste, dado que o robô tem em conta o ângulo de rotaçªo que Ø possível realizar em cada junta.
Nos movimentos onde se pretende percorrer o contorno da peça pode-se utilizar Movimentos Lineares, Movimentos Circulares e Movimentos Spline .
Na figura 5.6 apresenta-se o deslocamento do robô percorrendo vÆrios pontos utilizando exclusivamente Movimentos Lineares. Estes pontos foram escolhidos tendo em conta as geometrias das peças que se poderªo encontrar na prÆtica. Como se pode ver e como jÆ foi referido em cima os pontos sªo percorridos segundo segmentos de recta. Uma vez os pontos definirem um contorno bastante arredondado faz se notar as quinas vivas devido à trajectória ser pouco flexível. Esta seria uma boa soluçªo caso os pontos definissem um contorno mais linear.
Figura 5.6: Contorno efectuado com Movimentos Lineares.
<!-- image -->
Na figura 5.7 apresenta-se o contorno utilizando os mesmos pontos que no exemplo anterior mas neste caso utilizando Movimentos Circulares. Como se pode ver o contorno Ø percorrido de uma forma bastante mais suave em relaçªo ao anterior, eliminando as quinas vivas na peça.
Figura 5.7: Contorno efectuado com Movimentos Circulares.
<!-- image -->
Na figura 5.8 apresenta-se o contorno utilizando os mesmos pontos que nos exemplos anteriores mas neste caso utilizando Movimentos Spline. Como se pode ver o contorno Ø percorrido de uma forma ainda mais suave que no exemplo anterior, a eliminaçªo das quinas vivas neste caso ainda Ø mais notória.
Figura 5.8: Contorno efectuado com Movimentos Spline .
<!-- image -->
Uma funçªo que o robô disponibiliza e nªo deve ser desprezada Ø a utilizaçªo de Movimentos Lineares Suavizados. Esta funçªo permite percorrer os pontos exactamente da mesma forma que nos Movimentos Lineares, no entanto quando se estÆ na presença de uma quina viva por vezes o robô nªo chega a atingir o ponto descrevendo uma trajectória ligeiramente circular antes de o atingir. O robô utilizado disponibiliza quatro níveis de curvatura (PL) como se pode ver na figura 5.9.
Figura 5.9: Níveis de Suavizaçªo do Movimento Linear.
<!-- image -->
Na figura 5.10 Ø apresentado uma imagem com trŒs dos níveis de suavizaçªo permitidos no Movimento Linear. Como se pode verificar hÆ uma certa melhoria na suavidade do movimento quando se utiliza suavizaçªo.
Devido aos pontos estarem demasiado próximos nªo se nota grand vÆrios níveis de suavizaçªo. No entanto no âmbito deste trabalho os pontos a percorrer estarªo sempre a distâncias relativamente próximas. e diferença entre os
Figura 5.10: Contornos efectuados com Movimentos Lineares Suavizados (a) PL = 0; (b) PL = 1; (c) PL = 2; (d) PL =
<!-- image -->
Apresentados os tipos de movimentos deve-se agora escolher o mais apropriado ao caso em questªo. O Movimento Linear jÆ estÆ visível que nªo seria uma boa soluçªo. O Movimento Circular e o Movimento Spline seriam boas soluçıes no entanto, dado as suas limitaçıes nªo sªo utilizados. De referir, que estes dois movimentos poderiam ter sido utilizados, bastando para isso, por exemplo no caso do Movimento Circular garantir que cada conjunto de trŒs pontos adjacentes nªo estariam alinhados segundo a mesma recta. Este problema seria facilmente resolvido fazendo a verificaçªo (utilizando por exemplo a formulaçªo do produto interno aplicado aos vectores /g1842 /g3114/g2879/g2869 /g1842 /g3114 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g1318 e /g1842 /g3114/g2878/g2869 /g1842 /g3114 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g4652 /g1318 e analisando o ângulo gerado entre os dois vectores) e caso necessÆrio gerar pontos ligeiramente desalinhados. O Movimento Linear Suavizado proporciona contornos suficientemente suaves e sem necessidade de efectuar cÆlculos para efectuar verificaçıes ou gerar novos pontos.
## 5.6 Calibraçªo do Robô
Para enviar as coordenadas dos pontos ao robô Ø necessÆrio transformÆ-las em coordenadas conhecidas pelo robô, ou seja transformar as coordenadas no referencial cena num referencial conhecido pelo robô. O robô disponibiliza vÆrios tipos de referenciais, no entanto para esta situaçªo apenas serªo utilizados dois tipos. Um dos referenciais utilizados Ø chamado referencial robot , posicionado no centro da primeira junta do robô, ele estÆ definido por defeito nªo podendo ser alterado. Este referencial Ø utilizado quando se envia ao robô 'ordens' de deslocamento de forma remota. A calibraçªo deste referencial Ø bastante simples, uma vez que o referencial cena tem as mesmas direcçıes que o referencial robot diferindo apenas na posiçªo no espaço. Assim para realizar esta calibraçªo basta incrementar aos pontos que resultam da calibraçªo de imagem, as coordenadas do ponto de origem do referencial cena , expressas no referencial robot .
O outro tipo de referencial utilizado Ø o referencial user , este Ø definido pelo utilizador nªo só em posiçªo mas tambØm em termos de orientaçªo. Este referencial fez-se coincidir com o referencial cena e as coordenadas provenientes da calibraçªo de imagem sªo directamente utilizadas no controlo do robô. Nesta aplicaçªo o referencial user Ø utilizado como referencial nos ficheiros JBI , minimizando assim o nœmero de cÆlculos necessÆrios neste tipo de calibraçªo.
## CAP˝TULO SEIS
## 6 Funcionamento do Software Desenvolvido
Como jÆ referido, o software desenvolvido tem dois tipos de funcionalidades, manipulaçªo de objectos ' pick-and-place ' e reproduçªo de contornos ' Contour '. A primeira funcionalidade tem dois modos de operaçªo, Manual e AutomÆtico. No modo Manual o operador escolhe um objecto presente na imagem, o robô apanha-o e coloca-o na respectiva posiçªo de descarga. No modo AutomÆtico o robô apanha todos os objectos presentes na Ærea de trabalho, um de cada vez. Os objectos sªo identificados atravØs da sua Ærea, contorno, cor e posiçªo. A figura 6.1 apresenta o interface do software desenvolvido.
Figura 6.1: Interface do ' IndustrialRobotCV '.
<!-- image -->
Para escolher o tipo de operaçªo basta clicar no nome da operaçªo pretendida, caso se seleccione a operaçªo de manipulaçªo deve se escolher o modo de operaçªo que Ø em tudo semelhante à selecçªo do tipo de operaçªo, uma imagem destas funçıes ilustra-se na figura 6.2. Caso o operador nªo seleccione nenhuma das operaçıes, o software assume por defeito operaçıes de manipulaçªo no modo manual. Consoante Ø escolhido o tipo e modo de operaçªo o software apresenta uma mensagem informativa.
Figura 6.2: Escolha do Tipo e do Modo de Operaçªo.
<!-- image -->
Para operar com este software , a primeira coisa que deve ser feita Ø seleccionar o tipo e o modo de operaçªo, jÆ apresentados. De seguida deve ser adquirida a imagem, para isso clicase no botªo Camera Capture e posteriormente no botªo Refresh , apenas na primeira vez que se utiliza o software Ø necessÆrio clicar no primeiro botªo referido nas seguintes utilizaçıes basta clicar no segundo botªo referido. Na figura 6.3 sªo apresentados estes dois botıes.
Figura 6.3: Botıes de aquisiçªo de imagem.
<!-- image -->
O passo seguinte Ø o processamento de imagem, e neste caso deve-se clicar no botªo Initialize . O software reduz o efeito-olho-de-peixe presente na imagem (apresentado no capítulo quatro) e, o utilizador deve optimizar o contorno da imagem (janela Contours) como
apresentado no subcapítulo 3.4.1. Segue-se a aquisiçªo de informaçªo a partir da imagem e para isso basta clicar no botªo Get Info . O software passa a informar o utilizador verbalmente acerca do nœmero de objectos presente na imagem e tambØm apresenta uma mensagem acerca do mesmo. Apresenta-se estas funçıes na figura 6.4.
Figura 6.4: Extracçªo de informaçªo da imagem.
<!-- image -->
Deve ser estabelecida a comunicaçªo entre o computador utilizado e o robô, para isso clica-se no botªo Call Robot e devem-se ligar os motores do robô, clicar no botªo Robot On .
Consoante o tipo de operaçªo que se pretende realizar nesta fase a utilizaçªo do software serÆ distinta:
Para operar no modo de manipulaçªo de objectos manualmente, este modo deve estar escolhido como jÆ descrito anteriormente e, deve-se clicar em cima do objecto presente na imagem o mais próximo do seu centro de massa quanto possível. O robô procederÆ a apanhar o objecto e a coloca-lo na posiçªo de descarga, alØm de actualizar o nœmero e as características dos objectos presentes na Ærea de trabalho.
Para operar no modo automÆtico basta clicar no botªo Pick Objects e atØ que existirem objectos na Ærea de trabalho o robô apanharÆ todos os objectos, um por um.
No modo de reproduçªo de contornos o utilizador deve clicar no botªo Reproduce Contour e a operaçªo serÆ efectuada. Quando o robô termina esta œltima funcionalidade posiciona-se por cima do plano de trabalho (onde efectua a operaçªo), preparado para repetir a mesma operaçªo. De modo que, caso se pretenda realizar outra operaçªo ou reproduzir o contorno de um objecto diferente, ter-se-Æ de clicar no botªo Acquires Image Position para que o robô se desloque para a posiçªo de aquisiçªo de imagem. Seguindo-se a aquisiçªo de uma nova imagem e de todo e o processo jÆ descrito em cima.
Para reproduzir os contornos utilizou-se uma ferramenta com um lÆpis, como facilmente se entende o lÆpis Ø uma ferramenta que estÆ sujeito a um elevado desgaste de modo, que Ø de todo o interesse ajustar a ferramenta à Ærea de trabalho de uma forma simples, rÆpida e eficiente. Com vista a realizar esta tarefa surge um campo onde o utilizador insere um valor de modo a ajustar o lÆpis ao plano de trabalho. Este valor estÆ limitado ao intervalo [-10 ; 10], para valores diferentes o lÆpis deve ser ajustado no suporte.
Outras funcionalidades do software :
Botªo Init uEye apresenta a imagem vídeo da câmara no ecrª;
Botªo Exit uEye desliga a imagem vídeo da câmara;
Botªo Discharge Position desloca o robô para a posiçªo de descarga;
Botªo Origin desloca o robô para a origem do referencial cena (utilizar apenas quando tem a ventosa como ferramenta);
Botªo Robot Off desliga os motores do robô;
Botªo Disabel termina a comunicaçªo entre o computador e o robô;
Botªo Press On ligar a pressªo;
Botªo Press Off desligar a pressªo;
Botªo Vaccuum On liga o vÆcuo;
Botªo Vaccuum Off desliga o vÆcuo;
Botªo Stop Robot pÆra o robô em caso de emergŒncia;
Botªo Run Robot retira o robô do estado de emergŒncia;
Botªo Continue JOB retoma a realizaçªo de um programa (ficheiro JBI) que o robô estava a realizar antes de ser colocado no estado de emergŒncia.
Estas funcionalidades sªo ilustradas na figura 6.5.
Figura 6.5: Algumas funçıes de comando do robô.
<!-- image -->
O software dispıe de duas funcionalidades para movimentar o robô livremente, uma onde se introduz as coordenadas do ponto para o qual se pretende deslocar o robô e outra que movimenta o robô por incrementaçªo segundo os seus eixos. Para utilizar a primeira basta colocar as coordenadas do ponto nas caixas de texto, que se apresentam na figura 6.6 do lado esquerdo, e clicar no botªo Go To . Para utilizar a movimentaçªo por incrementaçªo deve-se seleccionar o valor que se pretende incrementar e de seguida clicar no botªo que corresponde à direcçªo e ao sentido do eixo que se pretende efectuar o movimento. A velocidade tanto numa como na outra Ø seleccionada pelo utilizador numa barra de deslocamento que estÆ limitada ao intervalo [0 ; 20] [mm/s].
Figura 6.6: Painel de comandos directos do robô.
<!-- image -->
O software demonstra ainda ao utilizador os estados do robô e a posiçªo em que ele se encontra, como se apresenta na figura 6.8, estas informaçıes vªo sendo ao longo do programa actualizadas no entanto, estªo disponíveis dois botıes que permitem ao utilizador actualiza-las em qualquer momento, sªo eles o botªo Read Robot State e o botªo Get Position respectivamente.
Figura 6.7: Informaçªo presente no software sobre: a) Estados do robô; b)Posiçªo em que o robô se encontra.
<!-- image -->
<!-- image -->
Outras informaçıes que sªo tambØm apresentadas quando se utiliza o software no modo de manipulaçªo de objectos sªo: as coordenadas dos objectos na imagem (1), a sua Ærea (1), a sua cor (1), as coordenadas na imagem seleccionadas pelo utilizador (2), a distância dessas coordenadas aos centros de massa de cada um dos objectos (1) e o objecto seleccionado que o robô estÆ a processar no momento (3), ver figura 6.8.
Figura 6.8: Informaçªo sobre a operaçªo de Manipulaçªo de Objectos.
<!-- image -->
No modo Contour aparecem ainda, as coordenadas de todos os pontos que identificam o contorno do objecto no referencial imagem (1) e as mesmas coordenadas no referencial user (2) e ainda o nœmero de pontos que define o contorno (3), ver figura 6.9. Neste modo na apresentaçªo da imagem aparece a verde o contorno que o robô deve realizar, representado na figura 6.10.
Figura 6.9: Informaçªo sobre a operaçªo de Reproduçªo de Contornos.
<!-- image -->
Figura 6.10: Representaçªo do contorno (a verde) a realizar pelo robô.
<!-- image -->
Um outro campo que pode ser de bastante utilidade Ø o IP do robô, este, caso necessÆrio pode facilmente ser alterado como se demonstra na figura 6.11.
Figura 6.11: Campo onde se pode alterar o IP do robô.
<!-- image -->
## CAP˝TULO SETE
## 7 Conclusıes
Ao longo deste documento foram feitas algumas escolhas e demonstrados alguns resultados que sªo merecedores de alguma discussªo e de mais alguns comentÆrios argumentativos. Pelo que se passa a enumerar:
Desde logo optou-se por um sistema de visªo monocular eye-in-hand , outras soluçıes seriam igualmente viÆveis, no entanto esta foi a soluçªo que satisfez as necessidades da aplicaçªo desenvolvida ao mais baixo custo de investimento e que proporcionou um tempo de ciclo mais baixo. Isto deve-se ao facto de utilizar menos hardware e de nªo processar informaçªo desnecessÆria. É verídico que a informaçªo tridimensional Ø estimada em parâmetros que pouco tŒm a ver com essa informaçªo, no entanto, a complexidade de software e hardware necessÆrios para extrair directamente essa informaçªo incrementaria de uma forma negativa alguns factores. Para alØm dos jÆ referidos, o tempo de desenvolvimento de software (com algoritmos altamente complexos) e o tempo de operaçªo do software num ciclo sªo alguns parâmetros de 'peso' que desfavorecem a utilizaçªo de outro mØtodo.
A utilizaçªo de um sistema eye-in-hand pode ser alvo de algum criticismo, uma vez que a aplicaçªo implementada nªo estÆ dotada directamente de nenhuma vantagem em relaçªo a um sistema eye-to-hand . No entanto, acredita-se que a vantagem de facilmente se poder utilizar uma Ærea de trabalho diferente, atenue os factores negativos que este sistema acarreta. Uma situaçªo que pode por em causa a fiabilidade deste sistema, e que deve ser alvo de uma anÆlise a realizar no futuro, Ø a incorporaçªo de uma fresa como ferramenta no robô. Esta situaçªo poderÆ introduzir vibraçªo no sistema que o desfavoreça consideravelmente.
A utilizaçªo de um sistema eye-to-hand teria a vantagem de ser possível utilizar uma lente com uma ampliaçªo inferior, o que levaria à introduçªo de menos distorçªo na imagem, uma vez que existe uma relaçªo entre o preço da lente e a sua qualidade. No entanto teria sempre que existir uma fase de reduçªo de distorçªo, dado que lentes ideais hoje em dia ainda
sªo uma 'miragem'. A fase de reduçªo do efeito de olho de peixe estÆ bastante funcional, uma vez se ter utilizado uma ferramenta ( toolbox ) jÆ testada em outras aplicaçıes nas quais foi considerada uma óptima ferramenta. Com ela foi possível reconstruir a imagem da cena e assim reduzir radicalmente a distorçªo presente na imagem. Resultando após calibraçªo da precisªo do robô um erro de aproximadamente zero milímetros no centro da imagem e de dois milímetros na extremidade da imagem, onde se verificava a maior distorçªo.
O mØtodo de calibraçªo utilizando o cÆlculo de regressıes, para a aplicaçªo em causa, efectivamente nªo apresentava os resultados exigidos ao bom funcionamento do sistema, um erro de nove milímetros na situaçªo mais desfavorÆvel Ø excessivo. De realçar que este mØtodo nªo foi alvo de teste utilizando a correcçªo da precisªo do robô, esse facto poderia ter melhorado um pouco os resultados. Um outro aspecto que poderia ter melhorado o desempenho do mØtodo recai sobre a escolha do ponto de referŒncia para o referencial imagem nesta fase (ponto superior esquerdo) e da orientaçªo escolhida para a câmara. De facto, grande parte da imagem continha uma certa inclinaçªo o que dificultou o processo de calibraçªo e os resultados associados. Acredita-se que utilizando o ponto central da imagem como referŒncia e orientando a câmara na direcçªo horizontal e vertical que passam nesse ponto, tendo em conta o papel xadrez na Ærea de trabalho, Ø possível melhorar os resultados obtidos de uma forma bastante favorÆvel. No entanto, nªo esquecer que este mØtodo peca pela sua falta de versatilidade, pelo que se nªo se pensar em desenvolver um algoritmo de elevada complexidade de modo a automatizar o processo, este mØtodo estarÆ condenado logo à partida.
O sistema desenvolvido embora ainda nªo tenha sido testado a nível industrial, em laboratório apresenta um bom desempenho, funcionando a qualquer hora do dia sem que a luz natural e artificial causem um forte impacto, apenas em objectos de altura considerÆvel o efeito sombra incute influŒncia no sistema. No entanto, ao longo do dia devido à diferença de luminosidade na Ærea de trabalho Ø necessÆrio proceder à correcçªo do parâmetro brilho.
Este trabalho apresenta-se como o ponto de partida para trabalhos futuros no melhoramento do processamento de imagem no que diz respeito à identificaçªo dos contornos dos objectos, na identificaçªo e rotaçªo de contornos no plano e na criaçªo de uma base de dados onde facilmente se identifique diferentes tipos de objectos numa 'perspectiva' tridimensional, onde a orientaçªo do robô varia para apanhar esses objectos.
Uma aplicaçªo na indœstria deste sistema serÆ por exemplo na eliminaçªo de rebarbas ou na suavizaçªo de quinas vivas em peças.
## REFER˚NCIAS BIBLIOGR`FICAS
- [1] Pires, J. Norberto , 2002. 'Automaçªo Industrial'. LIDEL.
- [2] Bouguet, J. , 1999. 'Visual methods for three-dimensional modeling'. PhD Thesis.
- [3] Gonçalves, P. J. , 2005. 'Controlo Visual de Robôs Manipuladores'. Dissertaçªo para obtençªo do grau de Doutor em Engenharia Mecânica .
- [4] Faugeras, O. , 1993. 'Three dimensional computer vision, a geometric viewpoint'. Cambridge, Massachusetts, USA, MIT Press.
- [5] D âmaso , R. , 2006. 'Implementaçªo de Controle Servo Visual e Coordenaçªo VisuoMotora em Robôs Manipuladores'. Dissertaçªo para obtençªo do grau de Doutor em Engenharia ElØctrica .
- [6] Ferreira, A. , 2007. 'Extracçªo de Dimensıes de Objectos por Laser para integraçªo de Manipuladores Industriais'. Relatório submetido a obtençªo do grau de Licenciado em Engenharia ElectrotØcnica e de Computadores .
- [7] Mihara, I. / Yamauchi, Y. & Doi, M. , 2003. 'A Real-Time Vision-Based Interface Using Motion Processor and Applications to Robotics'. in Systems and Computers in Japan , Vol. 34 th , No. 3, Wiley Periodicals Inc.
- [8] Gao, J. / Xu, W. & Geng, J. , 2006. '3D shape reconstruction of teeth by shadow speckle correlation method'. in Opt Lasers Eng , Vol. 44 th , No. 5, DOI, pp. 455-465.
- [9] Noruk, J. & Boillot, J.P. , 2006. 'Laser Vision Technology Ensures Six Sigma-level Quality is Achieved in Robotic Welding'. in Canadian Welding Association Journal Summer 2006 , Canada, pp. 8-14.
- [10] Xei, S. Q. / Cheng, D. / Wong, S. & Haemmerle, E. , 2007. 'Three-dimensional object recognition system for enhancing the intelligence of KUKA robot'. in Int J Adv Manuf Technol , Vol. 38 th , London, Spriger-Verlag, pp. 822-839.
- [11] Giordana, N. / Bouthemy, P. / Chaumette, F. & Spindler, F. , 2000. 'Two-dimensional model-based tracking of complex shapes for visual servoing tasks'. in M. Vincze & G. Hager, eds, Robust vision for vision-based control of motion , IEEE Press, pp. 67-77.
- [12] Hutchinson, S. / Hager, G. & Corke P., 1996. 'A tutorial on visual servo control'. in Transactions on Robotics and Automation , Vol. 12 th , No. 5, IEEE, pp. 651-670.
- [13] Hashimoto, K. , 2003. 'A review on vision-based control of robot manipulators'. in Advanced Robotics , Vol. 17, No. 10, pp. 969-991.
- [14] Remazeilles, A. / Chaumette, F. & Gros, P. , 2004. 'Robot motion control from a visual memory'. in Proceedings of the IEEE International Conference on Robotics and Automation , (New Orleans, U.S.A.), IEEE, pp. 4695-4700.
- [15] Shirai, Y. & Inoue, H. , 1973. 'Guiding a robot by visual feedback in assembly tasks'. in Pattern Recognition , Vol. 5, pp. 99-108.
- [16] Trucco, E. & Verri, A. , 1998. 'Introductory techniques for 3-d computer vision'. New Jersey, Prentice-Hall.
- [17] Pretlove, J. & Parker G. , 1991 'The development of a real-time stereo-vision system to aid robot guidance in carrying out a typical manufacturing task'. in Proceedings of the Internation Symposium of Robotics Research, ISRR , Vol. 22 nd , Detroit, MI, pp. 21.1-21.23.
- [18] Albuquerque, M. & Albuquerque, M. . 'Processamento de Imagem: MØtodos e AnÆlises'.
- [19] Horn, B. , 1986. 'Robot Vision'. MIT Press.
- [20] Shapiro, L. & Stockman, G. , 2001. 'Computer vision'. Prentice-Hall.
- [21] Sonka, M. / Hlavac, V. & Boyle, R. , 1999. 'Image processing, analysis and machine vision'. 2 nd edition, PWS Publishing.
- [22] Bouguet, J. , (June 2 nd ,1998). 'Camera calibration toolbox for matlab'. (http://www.vision.caltech.edu/bouguetj/cali\_doc/).
- [23] Bouguet, J. & Perona, P. . '3D photography using shadows in dual-space geometry'.
- [24] Bouguet, J. , 1999. 'Visual methods for three-dimensional modeling'. PhD Thesis.
- [25] Meggiolaro, M. / Jaffe, P. & Dubowsky, S. , 1999. 'Achieving Fine Absolute Positioning Accuracy in Large Powerful Manipulators'. in International Conference on Robotic & Automation ( ICRA ), (Detroit, Michigan), IEEE.
- [26] Brown, L. G. , 1992. 'A survey of image registration techniques'. in ACM Computer Surv, Vol. 24 th , No. 4, pp. 325-376.
- [27] ZitovÆ, B. & Flusser , J., 2003. 'Image registration methods: a survey'. in Image Vision Comput , Vol. 21 st , No. 11, Elsevier, pp. 977-1000.
- [28] Abdullah,M. / Bharmal, M. & Sardi, M. , 2005. 'High speed robot vision system with flexible end effector for handling and sorting of meat patties'. in 9 th International Conference on Mechatronics Technology .
- [29] Pinheiro, A. , 2007. 'AnÆlise e processamento de imagem'.
- [30] Heikkilä, J. & SilvØn O. . 'A Four-step Camera Calibration Procedure with Implicit Image Correction'.
- [31] MOTOMAN , 2004. 'MOTOMAN NX 100 BASIC PROGRAMMING'.
- [32] YASKAWA , 2003. 'NX 100 INSTRCTIONS, FOR RELATIVE JOB FUNCTION'.
- [33] Karli, W. et al , 2002. 'Beginning Visual C#'. Wrox Press Ltd.
|
Ciências da Engenharia e Tecnologias
|
Integração de Sistemas de Visão em Células Robóticas
|
Visão por computador||Representação de contornos||Robótica industrial
|
masterThesis
|
Departamento de Engenharia Mecânica||UC - Dissertações e Teses
|
Mendes, Nuno Alberto Marques
|
2009
|
https://hdl.handle.net/10316/20422
|
openAccess
|
N/A
|
heuristic
|
true
|
0.836
|
true
|
0.911
|
MedSau_MAThesis_PTPT_2021_051121_1
| "<!-- image -->\n\nMESTRADO INTEGRADO EM MEDICINA - TRABALHO FINAL\n\nMARGARIDA PIRES DE MOURA DA SI(...TRUNCATED)
|
Ciências Médicas e da Saúde
| "Internamentos Compulsivos: Revisão da casuística dos Hospitais da Universidade de Coimbra no per(...TRUNCATED)
|
Saúde mental||Epidemiologia||Tratamento psiquiátrico involuntário
|
masterThesis
|
UC - Dissertações e Teses
|
Rouxinol, Margarida Pires de Moura da Silva
|
2021
|
https://hdl.handle.net/10316/98521
|
openAccess
|
http://creativecommons.org/licenses/by-nc/4.0/
|
classifier
|
true
|
0.900
|
true
|
0.863
|
MedSau_MAThesis_PTPT_2016_006177_1
| "<!-- image -->\n\n## FACULDADE DE MEDICINA DA UNIVERSIDADE DE COIMBRA\n\nTRABALHO FINAL DO 6º ANO (...TRUNCATED)
|
Ciências Médicas e da Saúde
|
Perfeccionismo e regulamentação emocional: uma perspetiva transgeracional
| "Perfeccionismo||PRN||Perturbação psicológica||Regulação Emocional||Dimensões parentais||Persp(...TRUNCATED)
|
masterThesis
|
UC - Dissertações e Teses||FMUC - Área de Medicina
|
Alarcão, José Miguel Cunha de
|
2016
|
https://hdl.handle.net/10316/36814
|
openAccess
|
N/A
|
heuristic
|
true
|
0.743
|
true
|
0.933
|
CiSoc_bookPart_PT_2019_071635_1
| "## ACESSO À JUSTIÇA E JUDICIALIZAÇÃO DOS PRObLEMAS DA LIbERDADE RELIGIOSA E NEGATIvA DE CONSCI(...TRUNCATED)
|
Ciências Sociais
| "Acesso à Justiça e judicialização dos problemas da Liberdade Religiosa e Negativa de Consciênc(...TRUNCATED)
|
Liberdade Religiosa||Objeção de Consciência||Acesso à Justiça||Constitucional
|
bookPart
|
Faculdade de Direito
|
Barretto, Stênio
|
2019
|
https://hdl.handle.net/10316/118271
|
openAccess
|
N/A
|
heuristic
|
true
|
0.996
|
false
|
0.002
|
MedSau_MAThesis_PTPT_2016_006066_1
| "## Introduç‹o\n\nCom o aumento exponencial da expectativa de vida na Europa no ultimo sŽculo es(...TRUNCATED)
|
Ciências Médicas e da Saúde
|
Vacinação no idoso
|
masterThesis
|
UC - Dissertações e Teses||FMUC - Área de Medicina
|
Freitas, João Victor Mendonça
|
2016
|
https://hdl.handle.net/10316/36892
|
openAccess
|
N/A
|
heuristic
|
true
|
0.682
|
true
|
0.596
|
|
MedSau_article_PTPT_2017_061112_1
| "## Gravidez após o Cancro da Mama: Estado da Arte\n\n## Pregnancy after Breast Cancer: State of th(...TRUNCATED)
|
Ciências Médicas e da Saúde
|
Gravidez após o Cancro da Mama: Estado da Arte
| "Complicações Neoplásicas na Gravidez||Gravidez||Neoplasias da Mama||Breast Neoplasms||Pregnancy|(...TRUNCATED)
|
article
|
FMUC - Área de Medicina
|
Guedes, Helena||Figueiredo-Dias, Margarida
|
2017
|
https://hdl.handle.net/10316/108087
|
openAccess
|
http://creativecommons.org/licenses/by-nc/4.0/
|
heuristic
|
true
|
0.645
|
true
|
0.654
|
Hum_article_PTPT_2010_013986_1
| "<!-- image -->\n\n<!-- image -->\n\n## Como destruir uma biblioteca sem ser apanhado e outras coisa(...TRUNCATED)
|
Humanidades
| "Como destruir uma biblioteca sem ser apanhado e outras coisas interessantes: a propósito de 'Ágor(...TRUNCATED)
|
article
|
CECH - Centro de Estudos Clássicos e Humanísticos
|
Loureiro, João Diogo
|
2010
|
https://hdl.handle.net/10316/43212
|
openAccess
|
http://creativecommons.org/licenses/by-nc/4.0/
|
heuristic
|
true
|
0.996
|
true
|
0.988
|
|
CiSoc_article_O_2017_018057_1
| "## Compassionate Attention and Regulation of Eating Behaviour (CARE): A pilot study of a brief low (...TRUNCATED)
|
Ciências Sociais
| "Compassionate Attention and Regulation of Eating Behaviour: A pilot study of a brief low-intensity (...TRUNCATED)
|
article
|
CINEICC - Centro de Investigação do Núcleo de Estudos e Intervenção Cognitivo-Comportamental
|
Duarte, Cristiana||Pinto-Gouveia, José||Stubbs, R. James
|
2017
|
https://hdl.handle.net/10316/47215
|
openAccess
|
N/A
|
heuristic
|
false
|
0.005
|
N/A
|
N/A
|
|
CiSoc_conference_PTPT_2020_042949_1
| "<!-- image -->\n\n## GENTRIFICADORES CONTRA A GENTRIFICAÇÃO: A GENTRIFICAÇÃO TURÍSTICA DE UMA (...TRUNCATED)
|
Ciências Sociais
|
Gentrificadores contra a gentrificação: a gentrificação turística de uma cidade piscatória
| "Anti-turismo||Gentrificação transnacional||Gentrificação turística||Overtourism||Anti-tourism|(...TRUNCATED)
|
conferenceObject
|
CES - Centro de Estudos Sociais
|
Guerreiro, J. André||Marques, João Filipe
|
2020
|
https://hdl.handle.net/10316/91099
|
openAccess
|
N/A
|
heuristic
|
true
|
0.868
|
true
|
0.955
|
MedSau_MAThesis_PTPT_2017_033924_1
| "<!-- image -->\n\n## FACULDADE DE MEDICINA DA UNIVERSIDADE DE COIMBRA\n\nMESTRADO INTEGRADO EM MEDI(...TRUNCATED)
|
Ciências Médicas e da Saúde
| "Epidemiologia, seguimento e recidiva do Carcinoma de Células Renais localizado: estudo observacion(...TRUNCATED)
|
Carcinoma de células renais||Epidemiologia||Tratamento||Seguimento||Recidiva
|
masterThesis
|
UC - Dissertações e Teses
|
Cardoso, Andreia Filipa dos Santos
|
2017
|
https://hdl.handle.net/10316/82608
|
embargoedAccess
|
http://creativecommons.org/licenses/by/4.0/
|
classifier
|
true
|
0.808
|
true
|
0.622
|
CorEGe-PT: Corpus do Estudo Geral - Portuguese
CorEGe-PT is a large-scale corpus of academic texts written in Portuguese (mainly European Portuguese), extracted from Estudo Geral, the institutional repository of the University of Coimbra. It contains over 34,000 documents and approximately 1 billion tokens, making it the largest available corpus of its kind for the Portuguese language.
This dataset is designed to support linguistic research (Academic Discourse Studies) and the training or adaptation of Large Language Models (LLMs) for the academic domain.
Dataset Details
- Total Documents: >34,000
- Total Tokens: ~1.1 Billion
- Languages: Portuguese (Primary), with a distinction between European (PT-PT) and Brazilian (PT-BR) varieties.
- Format: Markdown (extracted using Docling)
Taxonomy
The corpus covers five main Fields of Science and Technology (FOS):
Social Sciences (37.9% of docs)
Medical and Health Sciences (24.8% of docs)
Humanities (16.4% of docs)
Engineering and Technology Sciences (12.4% of docs)
Exact and Natural Sciences (7.1% of docs)
*(Some of the documents may overlap more than one FOS.)
Data Fields
Each record contains the full text and rich metadata. The metadata fields include original repository data and enriched fields added during post-processing:
text: The full academic text converted to Markdown structure.dc.title: Publication title.dc.subject.fos: Field of Science and Technology (FOS) classification.dc.type: Document type (e.g., masterThesis, doctoralThesis, article).dc.date.issued: Publication year.dc.rights: Access rights (e.g., openAccess).pt.auto: Boolean indicating if the text was automatically classified as Portuguese.pt.mean.confidence.auto: Classifier confidence (0-1) predicting the text automatically as Portuguese.pt.pt.auto: Boolean indicating if the text was automatically classified as European Portuguese.pt.pt.mean.confidence.auto: Classifier confidence (0-1) predicting the text automatically as European Portuguesefos_assignment: Indicates if the FOS was assigned via heuristic or classifier.
Ethical Considerations
All documents included in CorEGe-PT were sourced from a publicly available repository. We ensured that the documents were in open access and, when such information was available, covered by permissive licenses. In the process, we excluded documents in closed access, embargoed, or without the most restrictive licenses (ND). In addition, we acknowledge all the sources in the corpus metadata, thus recognizing the intellectual contributions of authors. To support reproducibility, we provide detailed documentation of the corpus construction process, including data sources, selection criteria, and pre- and post-processing steps. The corpus is intended for research use, and we encourage responsible usage in accordance with ethical research practices.
Citation
If you find CorEGe-PT useful in your research, please consider citing:
@inproceedings{kuhn_etal:lrec2026,
author = {Tanara Zingano Kuhn and Jos{\´e} Matos and Bruno Neves and Daniela Pereira and Elisabete Ca{\c c}{\~a}o and Ivo Sim{\~o}es and Jacinto Estima and Delfim Le{\~a}o and Hugo {Gon{\c c}alo Oliveira}},
booktitle = {Proceedings of 15th Language Resources and Evaluation Conference},
pages = {Accepted},
publisher = {ELRA},
series = {LREC 2026},
title = {{CorEGe-PT}: {C}ompiling a {L}arge {C}orpus of {A}cademic {T}exts in~{P}ortuguese},
year = {2026}}
License
This project is licensed under the CC BY-NC-SA 4.0 license.
- Downloads last month
- 4

