RCAAP Repository
Investigação de modelos de coerência local para sumários multidocumento
A sumarização multidocumento consiste na tarefa de produzir automaticamente um único sumário a partir de um conjunto de textos derivados de um mesmo assunto. É imprescindível que seja feito o tratamento de fenômenos que ocorrem neste cenário, tais como: (i) a redundância, a complementaridade e a contradição de informações; (ii) a uniformização de estilos de escrita; (iii) tratamento de expressões referenciais; (iv) a manutenção de focos e perspectivas diferentes nos textos; (v) e a ordenação temporal das informações no sumário. O tratamento de tais fenômenos contribui significativamente para que seja produzido ao final um sumário informativo e coerente, características difíceis de serem garantidas ainda que por um humano. Um tipo particular de coerência estudado nesta tese é a coerência local, a qual é definida por meio de relações entre enunciados (unidades menores) em uma sequência de sentenças, de modo a garantir que os relacionamentos contribuirão para a construção do sentido do texto em sua totalidade. Partindo do pressuposto de que o uso de conhecimento discursivo pode melhorar a avaliação da coerência local, o presente trabalho propõe-se a investigar o uso de relações discursivas para elaborar modelos de coerência local, os quais são capazes de distinguir automaticamente sumários coerentes dos incoerentes. Além disso, um estudo sobre os erros que afetam a Qualidade Linguística dos sumários foi realizado com o propósito de verificar quais são os erros que afetam a coerência local dos sumários, se os modelos de coerência podem identificar tais erros e se há alguma relação entre os modelos de coerência e a informatividade dos sumários. Para a realização desta pesquisa foi necessário fazer o uso das informações semântico-discursivas dos modelos CST (Cross-document Structure Theory) e RST (Rhetorical Structure Theory) anotadas no córpus, de ferramentas automáticas, como o parser Palavras e de algoritmos que extraíram informações do córpus. Os resultados mostraram que o uso de informações semântico-discursivas foi bem sucedido na distinção dos sumários coerentes dos incoerentes e que os modelos de coerência implementados nesta tese podem ser usados na identificação de erros da qualidade linguística que afetam a coerência local.
Evaluating finite state machine based testing methods on RBAC systems
Access Control (AC) is a major pillar in software security. In short, AC ensures that only intended users can access resources and only the required access to accomplish some task will be given. In this context, Role Based Access Control (RBAC) has been established as one of the most important paradigms of access control. In an organization, users receive responsibilities and privileges through roles and, in AC systems implementing RBAC, permissions are granted through roles assigned to users. Despite the apparent simplicity, mistakes can occur during the development of RBAC systems and lead to faults or either security breaches. Therefore, a careful verification and validation process becomes necessary. Access control testing aims at showing divergences between the actual and the intended behavior of access control mechanisms. Model Based Testing (MBT) is a variant of testing that relies on explicit models, such as Finite State Machines (FSM), for automatizing test generation. MBT has been successfully used for testing functional requirements; however, there is still lacking investigations on testing non-functional requirements, such as access control, specially in test criteria. In this Master Dissertation, two aspects of MBT of RBAC were investigated: FSM-based testing methods on RBAC; and Test prioritization in the domain of RBAC. At first, one recent (SPY) and two traditional (W and HSI) FSM-based testing methods were compared on RBAC policies specified as FSM models. The characteristics (number of resets, average test case length and test suite length) and the effectiveness of test suites generated from the W, HSI and SPY methods to five different RBAC policies were analyzed at an experiment. Later, three test prioritization methods were compared using the test suites generated in the previous investigation. A prioritization criteria based on RBAC similarity was introduced and compared to random prioritization and simple similarity. The obtained results pointed out that the SPY method outperformed W and HSI methods on RBAC domain. The RBAC similarity also achieved an Average Percentage Faults Detected (APFD) higher than the other approaches.
2016
Carlos Diego Nascimento Damasceno
Aceleração por GPU de serviços em sistemas robóticos focado no processamento de tempo real de nuvem de pontos 3D
O projeto de mestrado, denominado de forma abreviada como GPUServices, se insere no contexto da pesquisa e do desenvolvimento de métodos de processamento de dados de sensores tridimensionais aplicados a robótica móvel. Tais métodos serão chamados de serviços neste projeto e incluem algoritmos de pré-processamento de nuvens de pontos 3D com segmentação dos dados, a separação e identificação de zonas planares (chão, vias), e detecção de elementos de interesse (bordas, obstáculos). Devido à grande quantidade de dados a serem tratados em um curto espaço de tempo, esses serviços utilizam processamento paralelo por GPU para realizar o processamento parcial ou completo destes dados. A área de aplicação em foco neste projeto visa prover serviços para um sistema ADAS: veículos autônomos e inteligentes, forçando-os a se aproximarem de um sistema de processamento em tempo real devido ao contexto de direção autônoma. Os serviços são divididos em etapas de acordo com a metodologia do projeto, mas sempre buscando a aceleração com o uso de paralelismo inerente: O pré-projeto consiste de organizar um ambiente que seja capaz de coordenar todas as tecnologias utilizadas e que explore o paralelismo; O primeiro serviço tem a responsabilidade de extrair inteligentemente os dados do sensor que foi usado pelo projeto (Sensor laser Velodyne de múltiplos feixes), que se mostra necessário devido à diversos erros de leitura e ao formato de recebimento, fornecendo os dados em uma estrutura matricial; O segundo serviço em cooperação com o anterior corrige a desestabilidade espacial do sensor devido à base de fixação não estar perfeitamente paralela ao chão e devido aos amortecimentos do veículo; O terceiro serviço separa as zonas semânticas do ambiente, como plano do chão, regiões abaixo e acima do chão; O quarto serviço, similar ao anterior, realiza uma pré-segmentação das guias da rua; O quinto serviço realiza uma segmentação de objetos do ambiente, separando-os em blobs; E o sexto serviço utiliza de todos os anteriores para a detecção e segmentação das guias da rua. Os dados recebidos pelo sensor são na forma de uma nuvem de pontos 3D com grande potencial de exploração do paralelismo baseado na localidade das informações. Porém, sua grande dificuldade é a grande taxa de dados recebidos do sensor (em torno de 700.000 pontos/seg.), sendo esta a motivação deste projeto: usar todo o potencial do sensor de forma eficiente ao usar o paralelismo de programação GPU, disponibilizando assim ao usuário serviços de tratamento destes dados.
2016
Leonardo Milhomem Franco Christino
Multidimensional projections for the visual exploration of multimedia data
The continuously advent of new technologies have made a rich and growing type of information sources available to analyses and investigation. In this context, multidimensional data analysis is considerably important when dealing with such large and complex datasets. Among the possibilities when analyzing such kind of data, applying visualization techniques can help the user find and understand patters, trends and establish new goals. Some applications examples of visualization of multidimensional data analysis goes from image classification, semantic word clouds, cluster analysis of document collection to exploration of multimedia content. This thesis presents several visualization methods to interactively explore multidimensional datasets aimed from specialized to casual users, by making use of both static and dynamic representations created by multidimensional projections. Firstly, we present a multidimen- sional projection technique which faithfully preserves distance and can handle any type of high-dimensional data, demonstrating applications scenarios in both multimedia and text docu- ments collections. Next, we address the task of interpreting projections in 2D, by calculating neighborhood errors. Hereafter, we present a set of interactive visualizations that aim to help users with these tasks by revealing the quality of a projection in 3D, applied in different high dimensional scenarios. In the final part, we address two different approaches to get insight into multimedia data, in special soccer sport videos. While the first make use of multidimensional projections, the second uses efficient visual metaphor to help non-specialist users in browsing and getting insights in soccer matches.
2016
Danilo Barbosa Coimbra
Evaluating classification models for resource-constrained hardware
Machine Learning (ML) is becoming a ubiquitous technology employed in many real-world applications in diverse areas such as agriculture, human health, entomology, and engineering. In some applications, sensors measure the environment while supervised ML algorithms are responsible for interpreting these data to make an automatic decision. Generally, these devices face three main restrictions: power consumption, cost, and lack of infrastructure. Most of these challenges can be better addressed by embedding ML classifiers in the hardware that senses the environment. Thus, we need highly-efficient classifiers suitable to execute in unresourceful hardware. However, this scenario conflicts with the state-of-practice of ML, in which classifiers are frequently implemented in high-level interpreted languages (e.g., Java or Python), make unrestricted use of floating-point operations and assume plenty of resources such as memory, processing and energy. In this work, we present a software tool named Embedded Machine Learning (EmbML) that implements a pipeline to develop classifiers for low-power microcontrollers. This pipeline starts with learning a classifier in a desktop or server computer using popular software packages or libraries as WEKA or scikit-learn. EmbML converts the classifier into a carefully crafted C++ code with support for resource-constrained hardware, such as the avoidance of unnecessary use of main memory and implementation of fixed-point operations for non-integer numbers. Our experimental evaluation on benchmark datasets and a variety of microcontrollers shows that EmbML classifiers achieve competitive results in terms of accuracy, classification time, and memory cost. Compared to classifiers from some existing related tools, ours achieved the best time and memory performances in at least 70% of the cases. Lastly, we conduct experiments in a real-world application to describe the complete pipeline for using EmbML and assessing its classifiers with an intelligent trap to classify and capture flying insects.
2020
Lucas Tsutsui da Silva
Simulação numérica de escoamentos multifásicos utilizando o sistema FreeFlow-2D.
Este trabalho descreve um método para expandir a aplicabilidade do sistema FreeFlow-2D para problemas de escoamentos de fluidos multifásicos. Este método permite a simulação de escoamento de fluido multifásico, incompressível e com superfície livre. Um número arbitrário de fases com propriedades diferentes pode ser utilizado. Tensões superficial e interfacial são também consideradas. A técnica numérica utilizada baseia-se no GENSMAC (Generalized-Simplified-Marker-and-Cell) e consideram-se propriedades variáveis de acordo com a posição da interface durante o escoamento. O campo de velocidade é computado utilizando-se às equações de Navier-Stokes discretizadas por esquema de diferença finita numa malha deslocada. O método foi implementado em três módulos: Modelador, Simulador e Visualizador. A validação foi efetuada comparando-se os resultados numéricos com resultados analíticos e experimentais. O método mostrou-se robusto e computacionalmente eficiente para os problemas considerados.
2001
Fernando Luiz Pio dos Santos
Avaliação automática da qualidade de escrita de resumos científicos em inglês
Problemas com a escrita podem afetar o desempenho de profissionais de maneira marcante, principalmente no caso de cientistas e acadêmicos que precisam escrever com proficiência e desembaraço não somente na língua materna, mas principalmente em inglês. Durante os últimos anos, ferramentas de suporte à escrita, algumas com enfoque em textos científicos, como o AMADEUS e o SciPo foram desenvolvidas e têm auxiliado pesquisadores na divulgação de suas pesquisas. Entretanto, a criação dessas ferramentas é baseada em córpus, sendo muito custosa, pois implica em selecionar textos bem escritos, além de segmentá-los de acordo com sua estrutura esquemática. Nesse mestrado estudamos, avaliamos e implementamos métodos de detecção automática da estrutura esquemática e de avaliação automática da qualidade de escrita de resumos científicos em inglês. Investigamos o uso de tais métodos para possibilitar o desenvolvimento de dois tipos de ferramentas: de detecção de bons resumos e de crítica. Nossa abordagem é baseada em córpus e em aprendizado de máquina supervisionado. Desenvolvemos um detector automático da estrutura esquemática, que chamamos de AZEA, com taxa de acerto de 80,4% eKappa de 0,73, superiores ao estado da arte (acerto de 73%, Kappa de 0,65). Experimentamos várias combinações de algoritmos, atributos e diferentes seções de um artigo científicos. Utilizamos o AZEA na implementação de duas dimensões de uma rubrica para o gênero científico, composta de 7 dimensões, e construímos e disponibilizamos uma ferramenta de crítica da estrutura de um resumo. Um detector de erros de uso de artigo também foi desenvolvido, com precisão é de 83,7% (Kappa de 0,63) para a tarefa de decidir entre omitir ou não um artigo, com enfoque no feedback ao usuário e como parte da implementação da dimensão de erros gramaticais da rubrica. Na tarefa de detectar bons resumos, utilizamos métodos usados com sucesso na avaliação automática da qualidade de escrita de redações com as implementações da rubrica e realizamos experimentos iniciais, ainda com resultados fracos, próximos à baseline. Embora não tenhamos construído um bom avaliador automático da qualidade de escrita, acreditamos que este trabalho indica direções para atingir esta meta, e forneça algumas das ferramentas necessárias
2007
Luiz Carlos Genoves Junior
Um framework para desenvolvimento de interfaces multimodais em aplicações de computação ubíqua
Interfaces multimodais processam vários tipos de entrada do usuário, tais como voz, gestos e interação com caneta, de uma maneira combinada e coordenada com a saída multimídia do sistema. Aplicações que suportam a multimodalidade provêem um modo mais natural e flexível para a execução de tarefas em computadores, uma vez que permitem que usuários com diferentes níveis de habilidades escolham o modo de interação que melhor se adequa às suas necessidades. O uso de interfaces que fogem do estilo convencional de interação baseado em teclado e mouse vai de encontro ao conceito de computação ubíqua, que tem se estabelecido como uma área de pesquisa que estuda os aspectos tecnológicos e sociais decorrentes da integração de sistemas e dispositivos computacionais à ambientes. Nesse contexto, o trabalho aqui reportado visou investigar a implementação de interfaces multimodais em aplicações de computação ubíqua, por meio da construção de um framework de software para integração de modalidades de escrita e voz
2007
Valter dos Reis Inacio Junior
Simulação numérica do transporte das propriedades durante o enchimento de compartimentos de reservatórios
O enchimento de reservatórios hidrelétricos provoca impactos ambientais, interferindo nos ecossistemas e nos modos de vida das populações envolvidas, pois durante este processo a biomassa terrestre é decomposta lançando substâncias que se concentram nos volumes dos diferentes compartimentos do reservatório. Nestas condições, algumas regiões do reservatório passam por períodos em que os teores de oxigênio dissolvido e a concentração de matéria orgânica comprometem o equilíbrio da flora e fauna locais, afetando tanto a qualidade das águas como também os ecótonos vizinhos. Neste trabalho, será tratado o problema do transporte das concentrações das espécies constituintes, da temperatura e da turbulência, 2D e 2DH, durante o enchimento de compartimentos de reservatórios
Power Map Explorer: uma ferramenta para visualização e previsão de vazões
A complexidade inerente ao processo de produção de energia apresenta um desafio aos especialistas quando estes se deparam com o dimensionamento e operação de sistemas de recursos hídricos. A produção energética de um sistema hidroelétrico depende fundamentalmente das séries de vazões afluentes às diversas usinas hidrelétricas do sistema. No entanto, a incerteza das vazões futuras e sua aleatoriedade são obstáculos que dificultam todo o planejamento da operação do sistema energético brasileiro. A inexistência de um software específico para análise de séries de vazões ocorridas nas usinas hidrelétricas, associada à importância desse tipo de dado no contexto energético, motivou a concepção de uma ferramenta gráafica para visualização e previsão desses dados. Acredita-se que a visualização desses dados por meio de representações apropriadas e altamente interativas possa promover hipóteses e revelar novas informações dos fenômenos associados a essas quantidades, melhorando a qualidade das decisões de planejamento do sistema energético. Este trabalho de mestrado apresenta em detalhes o sistema desenvolvido, chamado Power Map Explorer, e das técnicas nele implementadas
2007
Henderson Amparado de Oliveira Silva
Clustering de artigos científicos em uma ferramenta inteligente de apoio à pesquisa
Com a popularização da Internet, a disponibilização online de documentos de qualquer espécie tornou-se extremamente rápida. Utilizando-se de ferramentas de busca, pode-se ter acesso a quase todos os tipos de informação em questão de segundos. Porém, a quantidade de sites que proporcionam alguma informação importante é, em geral, muito pequena, se comparada ao número total de páginas que é fornecido pela ferramenta de busca. Isso ocorre, basicamente, pelo fato de que as páginas retornadas são ordenadas, por exemplo, de acordo com a quantidade de acessos à página ou à quantidade de links que levam a ela. Isso significa que uma página contendo a informação que o usuário deseja, mas que esteja no final da lista, dificilmente será lida se existir uma grande, quantidade de páginas antes dela. Assim, seria de grande ajuda uma ferramenta capaz de: a) recuperar um conjunto apropriado de documentos de acordo com palavras-chave fornecidas pelo usuário; b) analisar o conteúdo dos links encontrados extraindo informações relevantes dos textos e decidir se o documento pode ser importante para o usuário; c) fazer um clustering (agrupamento por similaridade) desses documentos relevantes e d) exibir um mapa no qual documentos similares estejam próximos entre si e distantes daqueles relacionados com outra área. Essa ferramenta está sendo desenvolvida no LABIC/ICMC-USP e recebeu o nome de FIP (Ferramenta Inteligente de Apoio à Pesquisa). Este trabalho visa investigar técnicas de clustering, principalmente, as aplicadas a documentos e decidir por aquela que melhor atenda os requisitos da FIP em termos de qualidade dos clusters, tempo de processamento e consumo de memória, visto que é tratada uma grande quantidade de documentos na ferramenta. Neste trabalho são testadas técnicas de clustering aglomerativo hierárquico, de particionamento e de mapa auto-organizável em corpus de artigos científicos, jornalísticos e de fórums de discussão: são discutidas as vantagens e desvantagens de cada uma; e indicadas, no caso particular da ferramenta FIP, as abordagens apropriadas.
2005
Vinícius Veloso de Melo
Um framework para análise de agrupamento baseado na combinação multi-objetivo de algoritmos de agrupamento
Esta Tese apresenta um framework para análise exploratória de dados via técnicas de agrupamento. O objetivo é facilitar o trabalho dos especialistas no domínio dos dados. O ponto central do framework é um algoritmo de ensemble multi-objetivo, o algoritmo MOCLE, complementado por um método para a visualização integrada de um conjunto de partições. Pela aplicação conjunta das idéias de ensemble de agrupamentos e agrupamento multi-objetivo, o MOCLE efetua atomaticamente importantes passos da análise de agrupamento: executa vários algoritmos conceitualmente diferentes com várias configurações de parâmetros, combina as partições resultantes desses algoritmos e seleciona as partições com os melhores compromissos de diferentes medidas de validação. MOCLE é uma abordagem robusta para lidar com diferentes tipos de estrutura que podem estar presentes em um conjunto de dados. Ele resulta em um conjunto conciso e estável de estruturas alternativas de alta qualidade, sem a necessidade de conhecimento prévio sobre os dados e nem conhecimento profundo em análise de agrupamento. Além disso, para facilitar a descoberta de estruturas mais complexas, o MOCLE permite a integração automática de conhecimento prévio de uma estrutura simples por meio das suas funções objetivo. Finalmente, o método de visualização proposto permite a observação simultânea de um conjunto de partições. Isso ajuda na análise dos resultados do MOCLE.
Um estudo comparativo de cargas de trabalho e políticas de escalonamento para aplicações paralelas em clusters e grids computacionais
Diversas políticas de escalonamento para aplicações paralelas voltadas a ambientes computacionais distribuídos têm sido propostas. Embora tais políticas apresentem bons resultados, elas são, geralmente, avaliadas em cenários específicos. Quando o cenário muda, com diferentes ambientes distribuídos e condições de carga, essas políticas podem ter seu desempenho deteriorado. Nesse contexto, este trabalho apresenta um estudo comparativo envolvendo dez políticas de escalonamento avaliadas em diferentes cenários. Cada uma das políticas foi submetida a uma combinação de quatro cargas de trabalho de ocupação da UCP e três variações da taxa de comunicação média entre os processos, utilizando a rede. Foram considerados ainda três sistemas distribuídos distintos: dois clusters, com diferentes quantidades de nós, e um grid computacional. Foi utilizada a simulação com ambientes próximos ao real e cargas de trabalho obtidas de modelos realísticos. Os resultados demonstraram que, embora as políticas sejam voltadas a ambientes computacionais paralelos e distribuídos, quando o cenário muda, o desempenho cai e a ordem de classificação entre as políticas se altera. Os resultados permitiram ainda demonstrar a necessidade de se considerar a comunicação entre os processos durante o escalonamento em grids computacionais.
2006
Juliano Amorim de Oliveira
Projeções multidimensionais para a análise de fluxos de dados
As técnicas de projeção multidimensional tornaram-se uma ferramenta de análise importante. Elas buscam mapear dados de um espaço multidimensional para um espaço visual, de menor dimensão, preservando as estruturas de distância ou de vizinhança no mapa visual produzido. Apesar dos recentes avanços, as técnicas existentes ainda apresentam deficiências que prejudicam a sua utilização como ferramentas exploratórias em certos domínios. Um exemplo está nos cenários streaming, nos quais os dados são produzidos e/ou coletados de forma contínua. Como a maioria das técnicas de projeção necessitam percorrer os dados mais de uma vez para produzir um layout final, e fluxos normalmente não podem ser carregados por completo em memória principal, a aplicação direta ou mesmo a adaptação das técnicas existentes em tais cenários é inviável. Nessa tese de doutorado é apresentado um novo modelo de projeção, chamado de Xtreaming, no qual as instâncias de dados são visitadas apenas uma vez durante o processo de projeção. Esse modelo é capaz de se adaptar a mudanças nos dados conforme eles são recebidos, atualizando o mapa visual para refletir as novas estruturas que surgem ao longo do tempo. Os resultados dos testes mostram que o Xtreaming é muito competitivo em termos de preservação de distâncias e tempo de execução se comparado com técnicas do estado-da-arte. Também é apresentada uma nova técnica de projeção multidimensional, chamada de User-assisted Projection Technique for Distance Information (UPDis), que foi projetada para permitir a intervenção do usuário exigindo apenas informações de distância entre as instâncias, e que é utilizada como parte do Xtreaming. Os resultados também mostram que a UPDis é tão rápida, precisa e flexível quanto as técnicas do estado-da-arte.
2016
Tácito Trindade de Araújo Tiburtino Neves
Uma abordagem baseada em resposta em frequência para modelagem e avaliação de desempenho não estacionária em sistemas computacionais
Este trabalho detalha a motivação para a avaliação de desempenho não estacionária de sistemas computacionais e introduz uma abordagem para a modelagem dinâmica de desempenho baseada na análise de resposta em frequência. A modelagem dinâmica é uma abordagem essencial que se desenvolveu como recurso importante na engenharia e algumas ciências naturais por muitas décadas e conta com uma coleção de ferramentas matemáticas para descrever o comportamento dinâmico de sistemas. Seja por tradição ou pela dificuldade de aplicação o uso de modelos dinâmicos em avaliação de desempenho de sistemas computacionais é recente e consideravelmente menos explorada que em outros domínios. A contribuição proposta por esta pesquisa, é a formulação de um arcabouço para avaliação de desempenho não estacionário de sistemas computacionais. O propósito desse arcabouço é produzir um modelo analítico dinâmico experimentalmente construído, que represente a dinâmica que governa o desempenho do sistema. A abordagem é composta por: modelo conceitual para formulação de métricas de desempenho transientes; um método empírico para a obtenção do modelo dinâmico; uma metodologia de análise baseada em resposta de frequência. Usos práticos são ilustrados através de estudos de caso em que os resultados demonstram a aplicabilidade da abordagem.
2016
Lourenço Alves Pereira Junior
RESOLUCAO DE PROBLEMAS DE FLUXO EM REDES DE GRANDE DIMENSAO.
Nesta dissertação, propomos um algoritmo dual para resolver o problema de roteamento de dados. Este problema pode ser formulado como um problema de multifluxo a critério convexo. Nosso algoritmo explora a decomposição por arcos do lagrangeano. No primeiro capitulo relembramos alguns conceitos, definições e propriedades da teoria dos grafos. No segundo capitulo apresentamos dois métodos para a resolução de problemas de fluxo de custo mínimo com função linear. No terceiro capitulo apresentamos o método do particionamento e o método da decomposição pela atribuição do recurso, que são utilizados para resolver problemas de multifluxo a critério linear. O quarto capitulo é dedicado a apresentação do método Dual para a resolução do problema de roteamento de dados, bem como a análise e apresentação dos resultados computacionais. Na última parte apresentamos a conclusão e perspectivas de trabalhos futuros.
UMA ABORDAGEM DE PARTICIONAMENTO DE CONJUNTOS ATRAVES DE COLORACAO EM GRAFOS.
Esta dissertação apresenta o desenvolvimento de um método para o particionamento de conjuntos através de coloração em grafos. Uma aplicação deste método para a determinação de um horário escolar é igualmente apresentada. O programa computacional desenvolvido foi escrito em linguagem Pascal e testado utilizando-se um microcomputador IBM-PC compatível. Os resultados obtidos são de boa qualidade apesar do caráter não polinomial do problema estudado.
1996
Lana Mara Rodrigues dos Santos
UMA APLICACAO DE COLORACAO EM GRAFOS PARA A TECNOLOGIS DE GRUPO
Nesta dissertação é apresentado um algoritmo de coloração em grafos para o projeto de células de manufatura em Tecnologia de Grupo. O algoritmo proposto computa as dissimilaridades entre as peças e estabelece uma partição de peças e máquinas por meio da construção e coloração de uma árvore de peso máximo em um número de cores igual ao número requerido de células. Este algoritmo permite a resolução eficiente de exemplos da literatura, apesar do caráter não polinomial do problema estudado. O programa correspondente foi escrito em Turbo-Pascal e está implantado em um microcomputador.
1996
Ricardo Cezar Ferreira
SELEÇÃO E CARREGAMENTO DE MAQUINAS
Nesta dissertação é apresentado um método composto de duas fases para efetuar a seleção de máquinas e o carregamento dos produtos sobre as máquinas selecionadas. Na primeira fase é identificado um conjunto de soluções factíveis de um problema da mochila através de programação dinâmica ou de um procedimento heurístico. Na segunda fase, resolve-se um problema de atribuição usando o algoritmo de enumeração implícita ou o algoritmo guloso. O método proposto foi implementado em linguagem Turbo-Pascal 7.0.
1996
Carlos Antonio de Medeiros
Identificação de plantas invasoras em tempo real.
A identificação de plantas invasoras é de extrema importância em diversos procedimentos utilizados na agricultura. Apesar de ser uma tarefa computacionalmente difícil, esta identificação tem se tornado muito importante no contexto da agricultura de precisão. A agricultura de precisão substitui os tratos culturais de grandes áreas da cultura, feitos pela média do nível dos problemas encontrados nessas áreas, por tratamento específicos e pontuais. As pricipais vantagens são o aumento de produtividade, relacionado com a diminuição da variabilidade na produção, a economia de insumos e a preservação do meio ambiente. Este trabalho enfoca o reconhecimento de plantas invasoras em tempo real. Para manter o requisito de tempo real, são utilizadas redes neurais artificiais como meio para o reconhecimento de padrões. Entre as diversas plantas invasoras de ocorrência freqüente no cerrado brasileiro, foi selecionado o picão preto para a avaliação das técnicas adotadas. Uma arquitetura modular de reconhecimento é proposta, com o uso de processamento paralelo, facilitando a inclusão de módulos de reconhecimento de outras plantas invasoras sem a deterioração do desempenho do sistema. Os resultados obtidos são amplamente satisfatórios, demonstrando a possibilidade do desenvolvimento de um sistema embarcado completo de identificação de plantas invasoras em tempo real. Este sistema, apoiado pelo sistema de posicionamento global GPS, pode servir de base para uma série de máquinas agrícolas inteligentes, como pulverizadores de herbicidas e outros defensivos utilizados na agricultura.
2002
Viviane Araujo Pernomian