Repositório RCAAP
Caminhadas determinísticas em redes complexas aplicadas em visão computacional
As redes complexas têm recebido um crescente interesse nas mais diversas áreas do conhecimento. Esse crescimento se deve principalmente a sua flexibilidade em modelar e simular estruturas topológicas que aparecem em nosso cotidiano. Na maioria das vezes, a caracterização das redes complexas é baseada em medidas básicas, como média dos graus, graus hierárquicos, coeficiente de aglomeração, entre outras. Muitas das medidas propostas são correlacionadas, implicando em redundância. Este trabalho propõe o uso das caminhadas determinísticas do turista como uma medida de representação robusta e eficiente de redes complexas. Nesta medida, caminhadas são iniciadas por exploradores que partem de um dos vértices da rede e em seguida, informações são extraídas sobre essas caminhadas. Experimentos foram realizados em redes complexas artificiais e em redes modelando imagens de textura. No reconhecimento de redes artificiais, o método proposto foi aplicado em quatro modelos de redes complexas teóricos: redes aleatórias, pequenomundo, livre de escala e geográficas. No reconhecimento de textura, o método foi avaliado em bancos de texturas sintéticas e reais (texturas de folhas de plantas). Em ambas as aplicações, o método alcançou excelentes resultados comparados com o estado da arte
Abordagens evolutivas para agrupamento relacional de dados
O agrupamento de dados é uma técnica fundamental em aplicações de diversos campos do mercado e da ciência, como, por exemplo, no comércio, na biologia, na psiquiatria, na astronomia e na mineração da Web. Ocorre que em um subconjunto desses campos, como engenharia industrial, ciências sociais, engenharia sísmica e recuperação de documentos, as bases de dados são usualmente descritas apenas pelas proximidades entre os objetos (denominadas bases de dados relacionais). Mesmo em aplicações nas quais os dados não são naturalmente relacionais, o uso de bases relacionais permite que os dados em si sejam mantidos sob sigilo, o que pode ser de grande valia para bancos ou corretoras, por exemplo. Nesta dissertação é apresentada uma revisão de algoritmos de agrupamento de dados que lidam com bases de dados relacionais, com foco em algoritmos que produzem partições rígidas (hard ou crisp) dos dados. Particular ênfase é dada aos algoritmos evolutivos, que têm se mostrado capazes de resolver problemas de agrupamento de dados com relativa acurácia e de forma computacionalmente eficiente. Nesse contexto, propõe-se nesta dissertação um novo algoritmo evolutivo de agrupamento capaz de operar sobre dados relacionais e também capaz de estimar automaticamente o número de grupos nos dados (usualmente desconhecido em aplicações práticas). É demonstrado empiricamente que esse novo algoritmo pode superar métodos tradicionais da literatura em termos de eficiência computacional e acurácia
Teste de integração contextual de programas orientados a objetos e a aspectos: critérios e automação
Uma abordagem de teste estrutural de integração contextual para programas OO e OA escritos em Java e AspectJ é apresentada. A finalidade dessa abordagem é descobrir defeitos que possam existir nas interfaces entre uma determinada unidade (método ou adendo) e todas as outras que interagem diretamente com ela, bem como descobrir defeitos que possam ocorrer na hierarquia de chamadas dessas unidades. Para programas OO, esse tipo de teste envolve testar a interação entre métodos; já para programas OA, o teste estrutural de integração nível um (como também pode ser chamado) deve considerar as interações método-método, método-adendo, adendo-adendo e adendo-método. Para efetuar o teste estrutural de integração nível um deve-se considerar todo o fluxo de execução (fluxo de controle e de dados) que ocorre entre uma unidade chamadora e as unidades que interagem diretamente com ela. Para isso é definido o grafo Def-Uso IN1P, que é uma abstração formada pela integração dos grafos Def-Uso Orientado a Aspectos (AODU) da unidade chamadora e das unidades que ela chama ou que a afeta. Além disso, são propostos três critérios para derivar os requisitos de teste, dois baseados em fluxo de controle (todos-nós-integrados-N1 e todas-arestas-integradas-N1) e um baseado em fluxo de dados (todos-usos-integrados-N1). A ferramenta JaBUTi/AJ foi estendida para dar apoio à abordagem de teste de integração proposta. Exemplos são apresentados para ilustrar o uso da ferramenta para o teste de profundidade um e também seu uso no contexto de uma abordagem que leva em consideração também o teste de unidades e o teste baseado em conjuntos de junção
2010
Vânia de Oliveira Neves
GreenMACC - Uma arquitetura para metaescalonamento verde com provisão de QoS em uma nuvem privada
Esta tese de Doutorado tem como objetivo apresentar uma arquitetura para metaescalonamento verde com provisão de qualidade de serviço em uma nuvem privada denominada GreenMACC. Essa nova arquitetura oferece a automatização na escolha de políticas em quatro estágios de escalonamento de uma nuvem privada, permitindo cumprir a negociação que foi estabelecida com o usuário. Devido a essa função, é possível garantir que o GreenMACC se comporte seguindo os princípios da computação verde sem deixar de se preocupar com a qualidade do serviço. Nesta tese o GreenMACC é apresentado, detalhado, discutido, validado e avaliado. Com os resultados apresentados pode-se concluir que a arquitetura proposta mostrou-se consistente, permitindo a execução dos serviços requisitados com diversas políticas de escalonamento em todos os seus estágios. Além disso, demonstrou flexibilidade em receber novas políticas, com focos verde e de qualidade de serviço, e eficiência na escolha das políticas de escalonamento de acordo com a negociação feita com o usuário.
2014
Osvaldo Adilson de Carvalho Junior
Visualização e exploração de dados multidimensionais na web
Com o crescimento do volume e dos tipos de dados, a necessidade de analisar e entender o que estes representam e como estão relacionados tem se tornado crucial. Técnicas de visualização baseadas em projeções multidimensionais ganharam espaço e interesse como uma das possíveis ferramentas de auxílio para esse problema, proporcionando um forma simples e rápida de identificar padrões, reconhecer tendências e extrair características antes não óbvias no conjunto original. No entanto, a projeção do conjunto de dados em um espaço de menor dimensão pode não ser suficiente, em alguns casos, para responder ou esclarecer certas perguntas feitas pelo usuário, tornando a análise posterior à projeção crucial para a correta interpretação da visualização observada. Logo, a interatividade, aplicada à necessidade do usuário, é uma fator essencial para análise. Neste contexto, este projeto de mestrado tem como principal objetivo criar metáforas visuais baseadas em atributos, através de medidas estatísticas e artefatos para detecção de ruídos e grupos similares, para auxiliar na exploração e análise dos dados projetados. Além disso, propõe-se disponibilizar, em navegadores Web, as técnicas de visualização de dados multidimensionais desenvolvidas pelo Grupo de Processamento Visual e Geométrico do ICMC-USP. O desenvolvimento do projeto como plataforma Web inspira-se na dificuldade de instalação e execução que certos projetos de visualização possuem, como problemas causados por diferentes versões de IDEs, compiladores e sistemas operacionais. Além disso, o fato do projeto estar disponível online para execução tem como propósito facilitar o acesso e a divulgação das técnicas propostas para o público geral.
2015
Lucas de Carvalho Pagliosa
PROJETO DE UMA INTERFACE DE VISUALIZAÇÃO GRÁFICA
Este trabalho visa descrever o projeto de uma Interface de Visualização Gráfica, capaz de gerar e apresentar traçados em um dispositivo de raios catódicos. A Interface de Visualização Gráfica projetada está baseada em um controlador gráfico, do tipo EF9367 da Thomson Semiconductors, e, juntamente com a programação gráfica básica correspondente, é capaz de gerar e apresentar figuras e textos em um monitor de vídeo de modo rápido, a partir de informações (comandos) enviadas por um sistema de arquivos. A implementação do protótipo foi realizada sobre um microcomputador, e a interface projetada apresenta uma resolução de 1024 x 416 \"pixels\" de três bits de informação.
1988
Carlos Norberto Fischer
PROGRAMAÇÃO LÓGICA E APLICAÇÕES
Este trabalho tem por objetivo servir de referência inicial às pessoas interessadas em Programação Lógica, mostrando os conceitos básicos necessários para um entendimento de tal tipo de programação. A linguagem de programação lógica PROLOG é usada no desenvolvimento do presente trabalho. Mostramos algumas aplicações e os programas correspondentes, a fim de ilustrar o estilo declarativo de programação deste tipo de linguagens.
1988
Divair Maria Terna Gomes
MÉTODOS DE PROGRAMAÇÃO GEOMÉTRICA
Este trabalho tem a finalidade de apresentar a teoria e uma classe de métodos da Programação Geométrica que tem sido consideradas de grande utilidade para solução de problemas de Engenharia. A classe de me todos estudados e baseada num conceito de condensação, que visa aproximar um programa posinomial a um programa Linear. Este último pode ser resolvido usando técnicas da Programação Linear . A idéia de projeção de Censor-Lent foi usada, em combinação com os métodos estudados, numa tentativa de acelera-los. Finalmente apresentamos as experiências numéricas e conclusões.
Uma ferramenta para a visualização de ESTs
Expressed Sequence Tags (ESTs) são amostras de trechos de genes, que funcionam como moldes na síntese de proteínas. Como a quantidade de ESTs coletados nos últimos anos é muito grande, o uso de computadores tornou-se imprescindível para a identificação de genes, proteínas e para a descoberta de genes homólogos. Este trabalho propõe uma metodologia e implementa uma ferramenta para a visualização de ESTs através de um grafo para auxiliar biólogos na exploração e na descoberta de conhecimento sobre estas seqüências. A metodologia inclui agrupamento usando um programa montador de seqüências e, conseqüentemente, a transformação dos grupos em nós de um grafo. O algoritmo BLAST é usado para procurar alinhamentos entre seqüências, representando-os posteriormente por arestas entre as seqüências mais similares. Para a visualização do grafo utilizamos e modificamos a ferramenta TG WikiBrowser conectada a um banco de dados. O resultado é uma ferramenta interativa baseada em código livre e robusto que funciona em ambientesWindows e Linux. Ela possibilita a fácil exploração do grafo, com diversas funcionalidades como, por exemplo: a expansão e filtragem do grafo, a busca por rótulos ou trechos de seqüências e a visualização detalhada de seqüências e grupos de seqüências. Com isso, os biólogos e especialistas em bioinformática ganham mais uma alternativa de investigação da genética
2007
Delane Pereira de Oliveira Dias
Seleção de características: abordagem via redes neurais aplicada à segmentação de imagens
A segmentaçãoo de imagens é fundamental para a visão computacional. Com essa finalidade, a textura tem sido uma propriedade bastante explorada por pesquisadores. Porém, a existência de diversos métodos de extração de textura, muitas vezes específicos para determinadas aplicações, dificulta a implementação de sistemas de escopo mais geral. Tendo esse contexto como motivação e inspirado no sucesso dos sistemas de visão naturais e em sua generalidade, este trabalho propõe a combinação de métodos por meio da seleção de características baseada na saliência das sinapses de um perceptron multicamadas (MLP). É proposto, também, um método alternativo baseado na capacidade do MLP de apreender textura que dispensa o uso de técnicas de extração de textura. Como principal contribuição, além da comparação da heurística de seleção proposta frente à busca exaustiva segundo o critério da distância de Jeffrey-Matusita, foi introduzida a técnica de Equalização da Entrada, que melhorou consideravelmente a qualidade da medida de saliência. É também apresentada a segmentação de imagens de cenas naturais, como exemplo de aplicação
2007
Davi Pereira dos Santos
Uma abordagem orientada a aspectos para desenvolvimento de linhas de produtos de software
Este trabalho investiga como o desenvolvimento de linhas de produtos de software pode ser beneficiado pela utilização da programação orientada a aspectos para reduzir o acoplamento e aumentar a coesão das features da linha de produtos. Como resultado dessa investigação, uma abordagem para desenvolvimento incremental de linhas de produtos baseado em aspectos é proposta. São apresentadas as etapas, atividades e artefatos dessa abordagem. Por ser uma abordagem incremental, reduz-se a carga de trabalho necessária no início da produção da linha de produtos. Isso é conseguido graças à utilização de aspectos. Com isso, tem-se as vantagens de linhas de produtos ao mesmo tempo amenizando a desvantagem do risco do alto investimento inicial não ter o retorno esperado. A abordagem foi proposta com base em práticas estabelecidas de desenvolvimento de linhas de produtos de software e no estudo das práticas atuais para análise e projeto orientado a aspectos. Foi dada ênfase à abordagem Tema, que é utilizada neste trabalho como parte do ferramental para análise e projeto. A abordagem desenvolvida especifica práticas desde a análise de domínio até a implementação. Os aspectos são tratados desde os estágios iniciais do desenvolvimento. Técnicas para implementação com orientação a aspectos são propostas. Um estudo de caso utilizando as linguagens Java e AspectJ é apresentado para ilustrar as idéias propostas
2007
Stanley Fabrizio Pacios
Zeros de polinômios característicos e estabilidade de métodos numéricos
A Teoria das equações diferenciais faz parte de uma área da Matemática muito rica em aplicações. Os métodos numéricos para a solução de equações diferenciais ordinárias são, da mesma forma que as próprias equações, fontes importantes de problemas a serem pesquisados. Como destaque tem-se os métodos multiderivadas de passo múltiplo, que são importantes na solução de problemas stiff. Os métodos numéricos mais conhecidos para a solução desses problemas são os BDF, que compõem, para L = 1, a família dos métodos (K, L) de Brown. Algumas questões relacionadas à estabilidade dos métodos (K, L) ainda não foram solucionadas como, por exemplo, uma conjectura de Jeltsch. Para analisá-la, é necessário estudar o comportamento dos zeros dos polinômios característicos associados aos métodos (K, L). Neste trabalho é apresentado um estudo sobre zeros de polinômios com o objetivo de demonstrar a validade da conjectura de Jeltsch para K \'< OU =\' \'K IND; L\' . As regiões de estabilidade para alguns valores de K e L fixos são apresentadas e também é utilizada a teoria das order stars para mostrar algumas propriedades dos métodos (K, L). Portanto, este trabalho apresenta um estudo sobre os métodos (K, L) de Brown e usa uma ferramenta pouco utilizada na literatura, que são as order stars, para demonstrar alguns resultados
Um método híbrido para o problema de dimensionamento de lotes
Neste trabalho, abordamos métodos de resolução para o problema de dimensionamento de lotes que contempla o planejamento da produção de vários produtos em múltiplas máquinas. A fabricação dos produtos consome tempo de produção e preparação de uma capacidade de produção limitada. A demanda pelos produtos é conhecida e pode ser atendida com atraso durante um horizonte de planejamento finito. O objetivo é minimizar a soma dos custos de produção, preparação para a produção, estoque dos produtos e atraso na entrega destes. Em uma primeira etapa, desenvolvemos uma busca tabu determinística baseada em outra, aleatória, que foi apresentada na literatura. Com isso, realizamos uma análise sobre a influência de fatores aleatórios sobre heurísticas do tipo busca tabu quando aplicadas ao problema estudado. Posteriormente, desenvolvemos um método híbrido baseado em busca tabu, branch-and-cut e programação linear para a resolução do problema. Nos testes computacionais realizados, o método proposto mostrou-se competitivo quando comparado a outras heurísticas apresentadas na literatura
Uso de assinaturas espectrais e veículos aéreos não tripulados para o diagnóstico automático de doenças de eucaliptos
Apresentando um papel de destaque no cenário nacional e internacional, o eucalipto possui rápido crescimento, alta produtividade, ampla diversidade de espécies, grande capacidade de adaptação e é aplicado em diferentes processos industriais, como por exemplo, produção de madeira, celulose e papel. No Brasil existem extensas áreas plantadas, principalmente nos estados de Minas Gerais, São Paulo e Paraná. Entretanto, eucaliptos são suscetíveis a doenças e pragas, o que pode trazer grandes prejuízo aos produtores. Tendo em vista esse contexto, surge a necessidade de detectar e diagnosticar doenças prematuramente, permitindo um combate ais eficaz e preciso a essas patologias. Visto que as plantações de eucalipto cobrem áreas muito extensas, o uso de VANTs (Veículos Aéreos Não-Tripulados) pode agilizar o processo de monitoramento, uma vez que podem sobrevoar grandes distâncias em pouco tempo. Sendo assim, esse trabalho desenvolveu um sistema de diagnóstico automático de doenças de eucalipto. Baseando-se em técnicas de detecção de ataques digitais, o diagnóstico é feito comparando assinaturas espectrais de plantas doentes com assinaturas conhecidas armazenadas em uma base de dados seguindo um modelo de assinaturas espectrais inspirado em um modelo de assinaturas de ataque. O sistema foi desenvolvido e validade utilizando dados de espectroradiômetros, apresentando precisão de até 96% em alguns casos.
Biometrics in a data stream context
The growing presence of the Internet in day-to-day tasks, along with the evolution of computational systems, contributed to increase data exposure. This scenario highlights the need for safer user authentication systems. An alternative to deal with this is by the use of biometric systems. However, biometric features may change over time, an issue that can affect the recognition performance due to an outdated biometric reference. This effect can be called as template ageing in the area of biometrics and as concept drift in machine learning. It raises the need to automatically adapt the biometric reference over time, a task performed by adaptive biometric systems. This thesis studied adaptive biometric systems considering biometrics in a data stream context. In this context, the test is performed on a biometric data stream, in which the query samples are presented one after another to the biometric system. An adaptive biometric system then has to classify each query and adapt the biometric reference. The decision to perform the adaptation is taken by the biometric system. Among the biometric modalities, this thesis focused on behavioural biometrics, particularly on keystroke dynamics and on accelerometer biometrics. Behavioural modalities tend to be subject to faster changes over time than physical modalities. Nevertheless, there were few studies dealing with adaptive biometric systems for behavioural modalities, highlighting a gap to be explored. Throughout the thesis, several aspects to enhance the design of adaptive biometric systems for behavioural modalities in a data stream context were discussed: proposal of adaptation strategies for the immune-based classification algorithm Self-Detector, combination of genuine and impostor models in the Enhanced Template Update framework and application of score normalization to adaptive biometric systems. Based on the investigation of these aspects, it was observed that the best choice for each studied aspect of the adaptive biometric systems can be different depending on the dataset and, furthermore, depending on the users in the dataset. The different user characteristics, including the way that the biometric features change over time, suggests that adaptation strategies should be chosen per user. This motivated the proposal of a modular adaptive biometric system, named ModBioS, which can choose each of these aspects per user. ModBioS is capable of generalizing several baselines and proposals into a single modular framework, along with the possibility of assigning different adaptation strategies per user. Experimental results showed that the modular adaptive biometric system can outperform several baseline systems, while opening a number of new opportunities for future work.
"Segmentação de imagens e validação de classes por abordagem estocástica"
Uma etapa de suma importância na análise automática de imagens é a segmentação, que procura dividir uma imagem em regiões cujos pixels exibem um certo grau de similaridade. Uma característica que provê similaridade entre pixels de uma mesma região é a textura, formada geralmente pela combinação aleatória de suas intensidades. Muitos trabalhos vêm sendo realizados com o intuito de estudar técnicas não-supervisionadas de segmentação de imagens por modelos estocásticos, definindo texturas como campos aleatórios de Markov. Um método com esta abordagem que se destaca é o EM/MPM, um algoritmo iterativo que combina a técnica EM para realizar uma estimação de parâmetros por máxima verossimilhança com a MPM, utilizada para segmentação pela minimização do número de pixels erroneamente classificados. Este trabalho desenvolveu um estudo sobre a modelagem e a implementação do algoritmo EM/MPM, juntamente com sua abordagem multiresolução. Foram propostas uma estimação inicial de parâmetros por limiarização e uma combinação com o algoritmo de Annealing. Foi feito também um estudo acerca da validação de classes, ou seja, a busca pelo número de regiões diferentes na imagem, mostrando as principais técnicas encontradas na literatura e propondo uma nova abordagem, baseada na distribuição dos níveis de cinza das classes. Por fim, foi desenvolvida uma extensão do modelo para a segmentação de malhas em duas e três dimensões.
2006
Leandro Cavaleri Gerhardinger
Extração de conhecimento simbólico em técnicas de aprendizado de máquina caixa-preta por similaridade de rankings
Técnicas de Aprendizado de Máquina não-simbólicas, como Redes Neurais Artificiais, Máquinas de Vetores de Suporte e combinação de classificadores têm mostrado um bom desempenho quando utilizadas para análise de dados. A grande limitação dessas técnicas é a falta de compreensibilidade do conhecimento armazenado em suas estruturas internas. Esta Tese apresenta uma pesquisa realizada sobre métodos de extração de representações compreensíveis do conhecimento armazenado nas estruturas internas dessas técnicas não-simbólicas, aqui chamadas de caixa preta, durante seu processo de aprendizado. A principal contribuição desse trabalho é a proposta de um novo método pedagógico para extração de regras que expliquem o processo de classificação seguido por técnicas não-simbólicas. Esse novo método é baseado na otimização (maximização) da similaridade entre rankings de classificação produzidos por técnicas de Aprendizado de Máquina simbólicas e não simbólicas (de onde o conhecimento interno esta sendo extraído). Experimentos foram realizados com vários conjuntos de dados e os resultados obtidos sugerem um bom potencial para o método proposto
Uma estratégia para a minimização de máquinas de estados finitos parciais
Máquinas de Estados Finitos, além de suas inúmeras aplicações, são amplamente utilizadas na Engenharia de Software para modelar especificações de sistemas. Nesses modelos, projetistas podem inserir, inadvertidamente, estados redundantes, ou seja, que exibem o mesmo comportamento. A eliminação desses estados traz diversos benefícios para as atividades que utilizam o modelo, como menor complexidade e menos recursos físicos para implementação. O processo de eliminação desses estados é denominado minimização, e pode ser realizado em tempo polinomial para máquinas completamente especificadas. Por outro lado, a minimização de máquinas parciais, cuja especificação não cobre todo o domínio de entrada, somente pode ser obtida em tempo polinomial com o uso de abordagens não determinísticas, ou seja, trata-se de um problema NP-Completo. Este trabalho apresenta uma estratégia para a minimização de máquinas de estados finitos parciais que faz o uso de heurísticas e otimizações para tornar o processo mais eficiente. Visando mensurar tal ganho de eficiência, foram realizados experimentos, nos quais os tempos de execução de uma implementação do método proposto foram medidos, juntamente com os tempos de implementações de dois outros métodos conhecidos. Os resultados mostraram vantagens significativas de performance para o novo método em relação aos métodos anteriores
2009
Alex Donizeti Betez Alberto
Esteganografia em vídeos comprimidos MPEG-4
A esteganografia em vídeos digitais possibilita o ocultamento de um grande volume de informações quando comparada a técnicas em imagens. Contudo, esta tarefa não é trivial quando aplicada a vídeos comprimidos, pois a inserção de informações ocultas pode adicionar ruído dificultando a perfeita recuperação das mesmas durante a decodificação. Este trabalho apresenta uma técnica para esteganografia em vídeos comprimidos, denominada MP4Stego, a qual explora estruturas e tecnologias do padrão de vídeo MPEG-4 de modo a proceder recuperação de informações sem perda e apresentar maior capacidade de inserção de dados ocultos. Entre os benefícios da técnica estão: A capacidade de ocultamento de grande volume de dados; a capacidade de reprodução do vídeo contendo dados ocultos em players não especializados (ajudando a dar a ilusão de que se trata de um vídeo comum), sua imunidade, até o momento, as técnicas de esteganálise
2008
Diego Fiori de Carvalho
Road features detection and sparse map-based vehicle localization in urban environments
Localization is one of the fundamental components of autonomous vehicles by enabling tasks as overtaking, lane keeping and self-navigation. Urban canyons and bad weather interfere with the reception of GPS satellite signal which prohibits the exclusive use of such technology for vehicle localization in urban places. Alternatively, map-aided localization methods have been employed to enable position estimation without the dependence on GPS devices. In this solution, the vehicle position is given as the place that best matches the sensor measurement to the environment map. Before building the maps, feature sof the environment must be extracted from sensor measurements. In vehicle localization, curbs and road markings have been extensively employed as mapping features. However, most of the urban mapping methods rely on a street free of obstacles or require repetitive measurements of the same place to avoid occlusions. The construction of an accurate representation of the environment is necessary for a proper match of sensor measurements to the map during localization. To prevent the necessity of a manual process to remove occluding obstacles and unobserved areas, a vehicle localization method that supports maps built from partial observations of the environment is proposed. In this localization system,maps are formed by curb and road markings extracted from multilayer laser sensor measurements. Curb structures are detected even in the presence of vehicles that occlude the roadsides, thanks to the use of robust regression. Road markings detector employs Otsu thresholding to analyze infrared remittance data which makes the method insensitive to illumination. Detected road features are stored in two map representations: occupancy grid map (OGM) and Gaussian process occupancy map (GPOM). The first approach is a popular map structure that represents the environment through fine-grained grids. The second approach is a continuous representation that can estimate the occupancy of unseen areas. The Monte Carlo localization (MCL) method was adapted to support the obtained maps of the urban environment. In this sense, vehicle localization was tested in an MCL that supports OGM and an MCL that supports GPOM. Precisely, for MCL based on GPOM, a new measurement likelihood based on multivariate normal probability density function is formulated. Experiments were performed in real urban environments. Maps were built using sparse laser data to verify there ronstruction of non-observed areas. The localization system was evaluated by comparing the results with a high precision GPS device. Results were also compared with localization based on OGM.