RCAAP Repository

A quality model for critical embedded systems

Embedded systems, including critical embedded systems (CES) are increasingly present in the modern society, providing specific solutions from small to large complex systems, such as in cars, airplanes, and healthcare equipment. Failures in these systems can result in damage to human beings, and to the environment, or can represent an unrecoverable financial loss. In this sense, it is very important to ensure they are built with quality. To provide such quality, it is necessary to consider their software architecture, which impacts on the quality of the systems. This way, the main objective of this Masters project is to propose a quality model concerning the most important quality attributes for CES, which may be used to support (but not limited to) architectural activities such as analysis and evaluation in the context of CES.

Year

2017

Creators

Brauner Roberto do Nascimento Oliveira

"Aprendizado de máquina semi-supervisionado: proposta de um algoritmo para rotular exemplos a partir de poucos exemplos rotulados"

A fim de se utilizar algoritmos de Aprendizado de Máquina para tarefas de classificação, é admitida a existência de um conjunto de exemplos rotulados, conhecido como conjunto de treinamento, o qual é utilizado para o treinamento do classificador. Entretanto, em casos reais, esse conjunto de treinamento pode não conter um número de exemplos suficientemente grande para se induzir um bom classificador. Recentemente, a comunidade científica tem mostrado um grande interesse em uma variação dessa abordagem de aprendizado supervisionado. Essa nova abordagem, conhecida como aprendizado semi-supervisionado, assume que, juntamente com o conjunto de treinamento, há um segundo conjunto, de exemplos não rotulados, também disponível durante o treinamento. Uma das metas do aprendizado semi-supervisionado é o treinamento de classificadores quando uma grande quantidade de exemplos não rotulados está disponível juntamente com um pequeno conjunto de exemplos rotulados. A motivação para o aprendizado semi-supervisionado deve-se ao fato que, em muitas aplicações do mundo real, conjuntos de exemplos não rotulados são facilmente encontrados ou muito baratos para serem coletados, quando comparados aos conjuntos de exemplos rotulados. Um outro fator é que exemplos não rotulados podem ser coletados de forma automática enquanto os rotulados necessitam de especialistas ou outros custosos recursos de classificação. Os exemplos não rotulados podem ser utilizados de diversas maneiras. Neste trabalho é explorado um mecanismo no qual os exemplos não rotulados podem ser utilizados para melhorar tarefas de classificação e é proposto um algoritmo semi-supervisionado, denominado k-meanski, o qual viabiliza o uso de exemplos não rotulados em aprendizado supervisionado. A técnica utilizada pelo algoritmo proposto está baseada em duas premissas. A primeira delas é que os exemplos tendem a se agrupar naturalmente em clusters, ao invés de se distribuirem uniformemente no espaço de descrição dos exemplos. Além disso, cada exemplo do conjunto inicial de exemplos rotulados deve estar localizado perto do centro de um dos clusters existentes no espaço de descrição de exemplos. A segunda premissa diz que a maioria dos exemplos nos clusters pertencem a uma classe específica. Obviamente, a validade dessas premissas é dependente do conjunto de dados utilizado. O algoritmo k-meanski funciona bem nos casos em que os dados estão em conformidade com ambas as premissas. Entretanto, caso elas sejam violadas, a performance do algoritmo não será boa. São mostrados experimentos utilizando conjuntos de dados do mundo real, escolhendo-se aleatoriamente exemplos desses conjuntos para atuarem como exemplos rotulados.

Year

2003

Creators

Marcelo Kaminski Sanches

Caracterização de um processo de software para projetos de software livre

Software Livre é software fornecido com código fonte, e que pode ser livremente usado, modificado e redistribuído. Projetos de Software Livre são organizações virtuais formadas por indivíduos que trabalham juntos no desenvolvimento de um software livre específico. Estes indivíduos trabalham geograficamente dispersos, utilizando ferramentas simples para coordenar e comunicar seu trabalho através da Internet. Este trabalho analisa esses projetos do ponto de vista de seu processo de software; em outras palavras, analisa as atividades que realizam para produzir, gerenciar e garantir a qualidade do seu software. Na parte inicial do trabalho é feita uma extensa revisão bibliográfica, comentando os principais trabalhos na área, e são detalhadas as características principais dos projetos de software livre. O conteúdo principal deste trabalho resulta de dois anos de participação ativa na comunidade, e de um levantamento realizado através de questionário, detalhando mais de quinhentos projetos diferentes. São apresentadas treze hipóteses experimentais, e os resultados do questionário são discutidos no contexto destas hipóteses. Dos projetos avaliados nesse levantamento, algumas características comuns foram avaliadas. As equipes da grande maioria dos projetos são pequenas, tendo menos de cinco participantes. Além disso, existe uma distribuição equilibrada entre algumas formas de organização descritas na literatura, incluindo o \'ditador benevolente\' de Eric S. Raymond e o \'comité\' exemplificado pelo projeto Apache. Dentre um conjunto de domínios de aplicação determinados, os projetos de software livre se concentram nas áreas de engenharia e desenvolvimento de software, redes e segurança, e aplicações multimídia. Com relação às atividades do processo de software, pode-se dizer que a maioria dos projetos tem requisitos fundamentalmente definidos pelos seus autores, e que a base de usuários de grande parte dos softwares é composta dos seus desenvolvedores e da comunidade de software livre. Uma parcela significativa dos projetos baseia-se em outros softwares pré-existentes, e em padrões publicados previamente. Pouca ênfase é dada à usabilidade, assim como às atividades de garantia de qualidade convencionais. Surpreendentemente, também recebem pouca atenção as atividades de revisão de código e teste sistemático. Entre as ferramentas que os projetos utilizam, se destacam as listas de discussão e os sistemas de controle de versão. Foi estabelecida uma correlação entre a dimensão da equipe do projeto e as atividades de engenharia de software que realiza, mas não se confirmou um vínculo entre estas atividades e a idade do projeto. Foram também estabelecidas relações entre o número de linhas de código do software do projeto e a sua idade, tamanho e domínio de aplicação. Estes resultados são exibidos neste trabalho, e estarão publicamente disponíveis no site Web do projeto. O trabalho conclui descrevendo partes essenciais do processo de software em projetos de software livre, e oferecendo sugestões para trabalhos posteriores.

Year

2003

Creators

Christian Robottom Reis

Investigação de regressão no processo de mineração de dados

Mineração de dados refere-se ao processo responsável por identificar padrões em grandes conjuntos de dados com o objetivo de extrair um novo conhecimento. Depois de extraídos os padrões, a etapa de pós-processamento tem como objetivo avaliar alguns aspectos desses padrões, como precisão, compreensibilidade e interessabilidade. Um dos problemas da mineração de dados preditiva conhecido como regressão tenta predizer o valor de um atributo-meta contínuo baseado em um conjunto de atributos de entrada. No entanto, a regressão em mineração de dados preditivo é uma questão pouco explorada nas áreas de aprendizado de máquina e mineração de dados, uma vez que a maioria das pesquisas são voltadas para os problemas de classificação. Por outro lado, o DISCOVER é um projeto que está sendo desenvolvido no Laboratório de Inteligência Computacional. Ele tem como objetivo fornecer um ambiente integrado para apoiar as etapas do processo de descoberta de conhecimento, oferecendo funcionalidades voltadas para aprendizado de máquina e mineração de dados e textos. O DISCOVER tem motivado a realização de muitos trabalhos em diversas áreas, sendo este mais um projeto a ele integrado. Para auxiliar na preparação dos dados para a construção de um modelo de regressão simbólico e na posterior avaliação desse modelo foi proposto e implementado neste trabalho o ambiente computacional DISCOVER POSTPROCESSING ENVIRONMENT OF REGRESSION - DiPER. Esse ambiente é composto por uma biblioteca de classes, implementada de acordo com as especificações do DISCOVER, que oferece uma série de métodos para serem utilizados na etapa de pós-processamento do processo de mineração de dados.

Year

2003

Creators

Daniel Gomes Dosualdo

Ambiente para exploração de regras

Recentemente, o desenvolvimento das tecnologias de coleta e armazenamento de dados, a popularização da Internet, e a evolução das necessidades de informação fazem com que qualquer esforço para facilitar a manipulação e o entendimento humano em relação a esse grande leque de informações ganhe grande importância. Nesse sentido, as organizações têm visto com crescente interesse o desenvolvimento de tecnologias automatizadas para extração de conhecimento de grandes volumes de dados. Estas tecnologias têm sido referenciada na literatura como Extração de Conhecimento de Bases de Dados ou Mineração de Dados (MD). Um dos objetivos do processo de Extração de Conhecimento de Bases de Dados é que seus usuários finais possam analisar, compreender e utilizar o conhecimento extraído em um processo de tomada de decisão. Entretanto, do ponto de vista desses usuários, um problema encontrado no íinal do processo de Extração de Conhecimento é que muitos dos algoritmos utilizados geram uma enorme quantidade de padrões, dificultando consideravelmente sua análise. Outro problema frequentemente identificado é a dificuldade na compreensão dos modelos extraídos dos dados. Nesse sentido, diversos trabalhos têm sido desenvolvidos para apoiar os usuários na avaliação e interpretação do conhecimento extraído a partir dos dados. A existência de um Ambiente para Exploração de Regras em que as regras encontradas em um processo de Extração de Conhecimento estejam armazenadas, disponibilizadas aos usuários e que apresente diversos tipos de métodos para sua avaliação pode representar um auxílio efetivo para os usuários na compreensão, identificação das regras interessante e utilização das mesmas. Nesta dissertação, são apresentadas algumas características importantes de um Ambiente para Exploração de Regras, uma arquitetura geral e a implementação de um ambiente deste tipo, o Ambiente RulEE. É também apresentado um estudo de caso realizado com objetivo de mostrar essas características na análise e disponibilização de regras extraídas a partir de um conjunto de dados financeiros.

Year

2003

Creators

Marcos Ferreira de Paula

Mathematical modeling of ripple- and oscillation-mark formation in the casting of steel

Ripple marks and oscillation marks are undesirable defects which occur on the surface of solidified steel produced industrially in the ingot and the continuous casting processes, respectively; these defects are characterized by more or less evenly spaced indentations on the metal surface. Although the mechanisms for their formation are thought to be qualitatively understood, there is still considerable scope for improvement as regards quantitative mathematical modeling. In this thesis, models for the two processes are developed. For the case of ripple marks, transient twodimensional (2D) momentum and heat transfer in ingot casting is considered, and a criterion is derived, in terms of the process parameters, that can help to inform how to avoid such marks. For the case of oscillation marks in continuous casting, a novel numerical formulation for a transient 2D model is developed with the aim of tracking the spatial location of the first point of molten steel to solidify, since this determines the profile of the final oscillation mark. In both cases, the models are nondimensionalized, and the sizes of the dimensionless parameters that appear are used to derive asymptotically reduced models, with a view to not only clarifying the qualitative behavior, but also as a means to reducing the computational expense; both finite-difference and finite-element methods are used to solve the resulting model equations. One of the conclusions is that, although experimentalists and metallurgists have, in the past, treated the two cases as being linked, the present modeling approach shows quite clearly, and perhaps for the first time, how they quantitatively differ.

Year

2018

Creators

Marcos Zambrano Fernandez

Um método de percurso cognitivo especializado para avaliar jogos digitais considerando usuários idosos

A rápida evolução tecnológica tem proporcionado que a população mundial vivencie novas formas de interação. Um fenômeno que também tem ocorrido em escala global é o envelhecimento populacional, que faz com que grande parte da população seja afetada por limitações decorrentes da idade. Jogos digitais podem oferecer diversos benefícios para um envelhecimento saudável, tais como bem-estar físico e mental, sociabilização com outros jogadores, relaxamento e entretenimento. A literatura apresenta esforços em direção a abordagens visando tornar as aplicações cada vez mais usáveis, por meio de diferentes métodos de avaliação de usabilidade. O Percurso Cognitivo (PC) é um desses métodos, que tem como finalidade a avaliação da facilidade de aprendizado. No entanto, o declínio cognitivo, especialmente quando decorrente do envelhecimento, dificulta o aprendizado pelos usuários. Assim, faz-se necessário uma investigação sobre o método PC para que considere também acessibilidade, devido a barreiras enfrentadas por pessoas idosas. O objetivo deste projeto foi propor um método de avaliação por inspeção, que considere questões de usabilidade e acessibilidade, com ênfase na facilidade de aprendizado, de modo a apoiar desenvolvedores e especialistas nas avaliações de jogos para o público idoso. Assim, foram realizados procedimentos metodológicos, tais como pesquisa bibliográfica e três Estudos de Caso (EC) para embasar o método proposto, nomeado Percurso de Barreiras Cognitivas (PBC). O primeiro EC foi realizado para analisar a aplicação do método PC, bem como identificar as possíveis vulnerabilidades do método ao avaliar jogos tendo como público alvo os idosos. Com base na primeira versão do método PBC, no segundo EC foi analisada sua aplicabilidade e foram coletadas sugestões de melhorias. A segunda versão do PBC foi então desenvolvida. No terceiro EC, foi analisada a viabilidade da aplicação da segunda versão do PBC em uma situação real. Finalmente, por incluir integralmente as questões do método PC tradicional, no PBC é esperado que um mesmo especialista ao avaliar um jogo, encontre (seja com base no PBC ou PC), no mínimo, os mesmos problemas, independente da experiência deste especialista. Foram evidenciadas que as questões e procedimentos do método PBC tendem a auxiliar o especialista a encontrar mais problemas do que encontraria com o método PC tradicional.

Year

2018

Creators

Flávia de Souza Santos

Uma abordagem multinível para construção de redes sociais geolocalizadas a partir de pontos de permanência

A popularização do GPS tem gerado uma massiva quantidade de dados que são organizados em trajetórias geográficas. Trajetórias geográficas são sequências ordenadas de coordenadas geográficas que representam um caminho de um objeto móvel. Para melhorar a compreensão destas trajetórias, são detectados locais de maior importância que são chamados de pontos de permanência, que indicam que um usuário permaneceu neste local por um tempo significativo. Pontos de permanência são comumente transformados em vértices de redes geolocalizadas para facilitar a mineração de trajetórias, a transformação é feita agrupando pontos geograficamente próximos. Porém, é pouco discutido na literatura a qualidade destas redes. Portanto, este projeto aborda esta lacuna e apresenta duas novas abordagens para construção de redes sociais geolocalizadas a partir de pontos de permanência. A abordagem proposta utiliza a fase de contração do paradigma multinível para realizar a transformação de pontos de permanência em vértices de redes. A fase de contração contrai uma rede original iterativamente até ser obtida uma rede solução, a contração leva em conta a estrutura topológica da rede. Os resultados mostram que as novas abordagens conseguem representar com maior precisão, por meio de redes geolocalizadas, o mundo real.

SISTEMA DE APOIO POR COMPUTADOR A DOCUMENTAÇÃO DE SISTEMAS

As características de um sistema para permitir a um computador dar apoio à documentação de sistemas são apresentadas. Verificam-se quais são as características principais que um tal sistema deve ter; em termos de quais as operações que ele deve tornar disponíveis. Para que isso seja possível, três subsiste mas são considerados: Um para definir a linguagem que deve ser usada na descrição; outro para manipular a descrição propriamente dita; e o terceiro para tarefas auxiliares às operações com a armazenagem da descrição. Qualquer linguagem relacional pode ser definida especificando-se os tipos de objetos e os tipos de relação que caracterizam o tipo de sistema em consideração. Após a definição de uma linguagem, qualquer sistema, do tipo considerado pode ser documentado. A descrição pode ser feita em etapas sendo que novas informações vão sendo incorporadas a uma base de dados. Em qualquer estágio da descrição, podem ser solicitados testes de consistência e completeza, e relatórios sobre qualquer aspecto do sistema jã descrito. Apresenta- se uma implementação de um sistema de apoio por computador à documentação de sistemas com essas características, composta de cerca de 200 rotinas, escritas em FORTRAN IV para um computador PDP 11/45 operando sob o Sistema Operacional RSX- 11M. Essa implementação teve como um dos objetivos principais a facilidade de ser levada para outros computadores, com o minimo de adaptações. Além disso ela não limita a dimensão que uma descrição pode ter, sendo essa limitação fixada pelo computador onde estiver operando. No computador PDP 11/45 até um máximo de 32766 objetos e o mesmo número de relações podem ser especificados em cada descrição. São apresentados 2 exemplos de aplicação do sistema implementado: um utilizando uma linguagem definida para descrição de orquestras, e outro utilizando uma linguagem definida para descrição de Sistemas de Informação, baseada na metodologia HIPO da IBM. Inclui-se 71 referências bibliográficas, sendo que 13 são trabalhos anteriores do próprio autor, que vem trabalhando nessa área desde 1974.

Year

1982

Creators

Caetano Traina Junior

Mixed integer programming models for fairness based physician scheduling problem in emergency room

In this thesis, our purpose is to tackle the Physician Scheduling Problem in Emergency Rooms considering fairness, aiming to provide fairer work schedules between the physicians. This problem can be described as a task assignment on a planning horizon considering a set of work regulations, individual preferences, and organizational rules that are often conflicting. The generated assignment displays which physicians are suitable to comply with the demand. The main aim is to find a schedule that maximizes individual preferences requirements while observing work regulations and organizational rules. The literature on physician scheduling is scarce, including applying the fairness concept, which is of great value for the ergonomics of medical work. In this work, we study and propose methods based on Integer Programming. The model statement results from a collection of literature models in which we assumed the most important features. After experiments and comparisons to literature approaches, our proposal shows fairer scheduling, and theoretically, we observed that some tend to explore the mathematical structure of the problem.

Year

2020

Creators

Valdemar Abrão Pedro Anastácio Devesse

Uma proposta de arquitetura de software para a simulação e experimentação de veículos autônomos

Sistemas de Transportes Inteligentes representam um imenso impacto social e aos poucos tem modificado o paradigma de mobilidade atual. Desde a década de 80, veículos autônomos vêm sendo desenvolvidos e estudados pela comunidade científica e hoje atrai o interesse de grandes empresas automobilísticas. Esses sistemas têm como objetivo a redução do número de acidentes de trânsito, aumento da eficiência dos transportes e inclusão social, sendo que neste contexto surge o projeto CaRINA. Através do desenvolvimento de uma plataforma robótica móvel pretende-se realizar a navegação completamente autônoma em ambiente urbano. Contudo, os experimentos realizados com a plataforma real são custosos, demorados e perigosos. A logística dos testes é complexa, uma vez que necessitam de local apropriado e disponibilidade de recursos. Portanto, o objetivo deste trabalho é desenvolver uma arquitetura de simulação para veículos autônomos que seja capaz de realizar experimentos em laboratório e facilite a portabilidade dos programas desenvolvidos em simulação para o veículo real. A flexibilidade da arquitetura do simulador também permite realizar experimentos utilizando múltiplos veículos.

Year

2016

Creators

Tiago Cesar dos Santos

Reversão anaglífica em vídeos estereoscópicos

A atenção voltada à produção de conteúdos 3D atualmente tem sido alta, grande parte devido à aceitação e à manifestação de interesse do público para esta tecnologia. Novas técnicas de captação e codificação e modos de reprodução de vídeos 3D, particularmente vídeos estereoscópicos, vêm surgindo ou sendo melhorados, visando aperfeiçoar e integrar esta nova tecnologia com a infraestrutura disponível. No entanto, em relação a avanços na área de codificação, nota-se a ausência de uma técnica compatível com mais de um método de visualização de vídeos estereoscópicos - para cada método de visualização há uma técnica de codificação diferente, o que inviabiliza ao usuário escolher o método que deseja visualizar o conteúdo. Uma abordagem para resolver este problema é desenvolver uma técnica genérica, isto é, uma técnica que seja independentemente do método de visualização, que através de parâmetros adequados, produza um vídeo estereoscópico sem perda significativa de qualidade ou a percepção de profundidade, que é a característica marcante desse tipo de conteúdo. O método proposto neste trabalho, chamado HaaRGlyph, transforma um vídeo esterescópico em um único fluxo contendo um anáglifo, codificado de modo especial. Esse fluxo além de ser compatível com o método de visualização anaglífica é também reversível à uma aproximação do par estéreo original, possibilitando a independência de visualização. Além disso, a HaaRGlyph atinge maiores taxas de compressão do que o trabalho relacionado.

Year

2016

Creators

Felipe Maciel Rodrigues

Estudo de métodos de interface imersa para as equações de Navier-Stokes

Uma grande limitação dos métodos de diferenças finitas é que eles estão restritos a malhas e domínios retangulares. Para descrever escoamentos em domínios complexos, como, por exemplo, problemas com superfícies livres, faz-se necessário o uso de técnicas acessórias. O método de interfaces imersas é uma dessas técnicas. Nesse trabalho, primeiramente foi desenvolvido um método de projeção, totalmente livre de pressão, para as equações de Navier-Stokes com variáveis primitivas em malha deslocada. Esse método é baseado em diferenças finitas compactas, possuindo segunda ordem temporal e quarta ordem espacial. Esse método foi combinado com o método de interface imersa de Linnick e Fasel [2] para resolver numericamente as equações de Stokes com quarta ordem de precisão. A verificação do código foi feita por meio do método das soluções manufaturadas e da comparação com resultados de outros autores em problemas clássicos da literatura.

Year

2016

Creators

Gabriela Aparecida dos Reis

Projeto e implementação de um gerador automático de serviços web a partir de diagramas de classes

A indústria de desenvolvimento de software está em constante evolução e em busca de novos desafios, como por exemplo: novas tecnologias, linguagens de programação e estratégias para aumentar a produtividade no desenvolvimento. Com o passar do tempo, essa evolução desejada tem se concretizado, em especial com o surgimento de conceitos como Service Oriented Architecture (SOA) e Model-Driven Development (MDD). Nesse contexto, ganha importância a reutilização de software, por exemplo por meio do uso de serviços que facilitam a interoperabilidade entre diferentes sistemas. Ambientes de desenvolvimento de software, em especial ambientes de reúso de software, poderiam se adequar à arquitetura SOA para facilitar a disponibilização de serviços a outros ambientes, promovendo sua integração e aumentando a possibilidade de reúso. Após um levantamento bibliográfico sobre ambientes integrados de reúso que utilizassem serviços para permitir o compartilhamento de recursos, percebeu-se que os trabalhos nessa direção são poucos. Ao mesmo tempo, observou-se que para integração de sistemas por meio de serviços é necessário criar camadas de acesso às entidades dos sistemas que compartilharão informações. A implementação desses serviços de forma manual é repetitiva e sujeita a erros, principalmente por programadores que não estão familiarizados com SOA. Por outro lado, diagramas de classes em UML (Unified Modeling Language) são de amplo conhecimento por parte de desenvolvedores e estão em um nível de abstração que é suficientemente detalhado para permitir a derivação de serviços de acesso às suas classes. Desta forma, para atender uma demanda crescente de sistemas que precisam oferecer serviços para possibilitar sua integração com outros sistemas, este mestrado tem por objetivo promover a geração automatizada de código de serviços por meio de transformações de modelo para texto, em que o modelo de entrada é um diagrama de classes derivado da UML e os serviços gerados cobrem operações básicas do tipo CRUD. O gerador resultante foi validado por meio de duas provas de conceito e mostrou-se adequado para cumprir os objetivos estabelecidos, visto que o desenvolvedor trabalha com um modelo em alto nível de abstração, não precisando conhecer os detalhes inerentes à implementação dos serviços.

Year

2016

Creators

Domenico Schettini Filho

"Pós-processamento de regras de associação"

A demanda por métodos de análise e descoberta de conhecimento em grandes bases de dados tem fortalecido a pesquisa em Mineração de Dados. Dentre as tarefas associadas a essa área, tem-se Regras de Associação. Vários algoritmos foram propostos para tratamento de Regras de Associação, que geralmente tˆem como resultado um elevado número de regras, tornando o Pós-processamento do conhecimento uma etapa bastante complexa e desafiadora. Existem medidas para auxiliar essa etapa de avaliação de regras, porém existem lacunas referentes a inexistência de um método intuitivo para priorizar e selecionar regras. Além disso, não é possível encontrar metodologias específicas para seleção de regras considerando mais de uma medida simultaneamente. Esta tese tem como objetivo a proposição, desenvolvimento e implementação de uma metodologia para o Pós-processamento de Regras de Associação. Na metodologia proposta, pequenos grupos de regras identificados como potencialmente interessantes são apresentados ao usuário especialista para avaliação. Para tanto, foram analisados métodos e técnicas utilizadas em Pós-processamento de conhecimento, medidas objetivas para avaliação de Regras de Associação e algoritmos que geram regras. Dessa perspectiva foram realizados experimentos para identificar o potencial das medidas a serem empregadas como filtros de Regras de Associação. Uma avaliação gráfica apoiou o estudo das medidas e a especificação da metodologia proposta. Aspecto inovador da metodologia proposta é a utilização do método de Pareto e a combinação de medidas para selecionar as Regras de Associação. Por fim foi implementado um ambiente para avaliação de Regras de Associação, denominado ARInE, viabilizando o uso da metodologia proposta.

Year

2004

Creators

Edson Augusto Melanda

Malhas adaptativas em domínios definidos por fronteiras curvas

Dois métodos distintos são descritos e implementados. O primeiro método, proposto por Ruppert, possui garantias teóricas de qualidade quando a fronteira do domínio obedece certas restrições. O segundo método, proposto por Persson, possibilita um maior controle na densidade dos elementos que discretizam o domínio. As vantagens, desvantagens e particularidades de cada um dos métodos são descritas e detalhadas

Year

2007

Creators

Luís Gustavo Pinheiro Machado

Avaliação da efetividade dos critérios de teste estruturais no contexto de programas concorrentes

A Engenharia de Software tem desenvolvido t[écnicas e métodos para apoiar o desenvolvimento de software confiável, flexível, com baixo custo de desenvolvimento e fácil manutenção. Técnicas e critérios de teste contribuem nessa direção, fornecendo mecanismos para produzir software com alta qualidade. Este trabalho apresenta um estudo experimental para avaliar o custo, eficácia e a dificuldade de satisfação (strength) dos critérios estruturais propostos para programas concorrentes. Esta avaliação foi conduzida usando oito programas implementados em MPI e utilizando a ferramenta de teste ValiMPI. Com base em taxonomias, defeitos foram injetados nos programas de modo a avaliar a eficácia dos critérios de teste em revelar os defeitos inseridos. Os resultados obtidos demonstraram o aspecto complementar dos critérios e informações sobre o custo e eficácia, que contribuíram para o estabelecimento de uma estratégia de teste incremental para aplicar os critérios de teste em uma boa relação custo-eficácia. Para concluir, os resultados indicam que os critérios de teste estrutural propostos para programas concorrentes em MPI são promissores e podem auxiliar a detectar defeitos nessas aplicações, melhorando a qualidade das mesmas

Year

2011

Creators

Maria Adelina Silva Brito

Representação Nó-profundidade em FPGA para algoritmos evolutivos aplicados ao projeto de redes de larga-escala

Diversos problemas do mundo real estão relacionados ao projeto de redes, tais como projeto de circuitos de energia elétrica, roteamento de veículos, planejamento de redes de telecomunicações e reconstrução filogenética. Em geral, esses problemas podem ser modelados por meio de grafos, que manipulam milhares ou milhões de nós (correspondendo às variáveis de entrada), dificultando a obtenção de soluções em tempo real. O Projeto de uma Rede é um problema combinatório, em que se busca encontrar a rede mais adequada segundo um critério como, por exemplo, menor custo, menor caminho e tempo de percurso. A solução desses problemas é, em geral, computacionalmente complexa. Nesse sentido, metaheurísticas como Algoritmos Evolutivos têm sido amplamente investigadas. Diversas pesquisas mostram que o desempenho de Algoritmos Evolutivos para Problemas de Projetos de Redes pode ser aumentado significativamente por meio de representações mais apropriadas. Este trabalho investiga a paralelização da Representação Nó-Profundidade (RNP) em hardware, com o objetivo de encontrar melhores soluções para Problemas de Projetos de Redes. Para implementar a arquitetura de hardware, denominada de HP-RNP (Hardware Parallelized RNP), foi utilizada a tecnologia de FPGA para explorar o alto grau de paralelismo que essa plataforma pode proporcionar. Os resultados experimentais mostraram que o HP-RNP é capaz de gerar e avaliar novas redes em tempo médio limitado por uma constante (O(1))

Year

2011

Creators

Marcilyanne Moreira Gois

Abordagens para aprendizado semissupervisionado multirrótulo e hierárquico

A tarefa de classificação em Aprendizado de Máquina consiste da criação de modelos computacionais capazes de identificar automaticamente a classe de objetos pertencentes a um domínio pré-definido a partir de um conjunto de exemplos cuja classe é conhecida. Existem alguns cenários de classificação nos quais cada objeto pode estar associado não somente a uma classe, mas a várias classes ao mesmo tempo. Adicionalmente, nesses cenários denominados multirrótulo, as classes podem ser organizadas em uma taxonomia que representa as relações de generalização e especialização entre as diferentes classes, definindo uma hierarquia de classes, o que torna a tarefa de classificação ainda mais específica, denominada classificação hierárquica. Os métodos utilizados para a construção desses modelos de classificação são complexos e dependem fortemente da disponibilidade de uma quantidade expressiva de exemplos previamente classificados. Entretanto, para muitas aplicações é difícil encontrar um número significativo desses exemplos. Além disso, com poucos exemplos, os algoritmos de aprendizado supervisionado não são capazes de construir modelos de classificação eficazes. Nesses casos, é possível utilizar métodos de aprendizado semissupervisionado, cujo objetivo é aprender as classes do domínio utilizando poucos exemplos conhecidos conjuntamente com um número considerável de exemplos sem a classe especificada. Neste trabalho são propostos, entre outros, métodos que fazem uso do aprendizado semissupervisionado baseado em desacordo coperspectiva, tanto para a tarefa de classificação multirrótulo plana quanto para a tarefa de classificação hierárquica. São propostos, também, outros métodos que utilizam o aprendizado ativo com intuito de melhorar a performance de algoritmos de classificação semissupervisionada. Além disso, são propostos dois métodos para avaliação de algoritmos multirrótulo e hierárquico, os quais definem estratégias para identificação dos multirrótulos majoritários, que são utilizados para calcular os valores baseline das medidas de avaliação. Foi desenvolvido um framework para realizar a avaliação experimental da classificação hierárquica, no qual foram implementados os métodos propostos e um módulo completo para realizar a avaliação experimental de algoritmos hierárquicos. Os métodos propostos foram avaliados e comparados empiricamente, considerando conjuntos de dados de diversos domínios. A partir da análise dos resultados observa-se que os métodos baseados em desacordo não são eficazes para tarefas de classificação complexas como multirrótulo e hierárquica. Também é observado que o problema central de degradação do modelo dos algoritmos semissupervisionados agrava-se nos casos de classificação multirrótulo e hierárquica, pois, nesses casos, há um incremento nos fatores responsáveis pela degradação nos modelos construídos utilizando aprendizado semissupervisionado baseado em desacordo coperspectiva

Projeto de um controlador PID para controle de ganho de uma câmera com sensor CMOS utilizando computação reconfigurável

Este trabalho propõe um controlador PID (Proporcional, Integrador, Derivativo), implementado em hardware reconfigurável, para controle de ganho de uma câmera com sensor CMOS. O conceito utilizado é o de sistemas SoC (System-on-a-Chip). As principais funções realizadas pelo sistema são: Aquisição da imagem, montagem do histograma, análise do histograma, controle de ganho baseado na análise do histograma. O sistema proposto tem como objetivo conter algumas funções básicas de controle de ganho que possam servir de base para construção de sistemas de visão computacional que possibilitem a otimização do tempo gasto na construção de novos sistemas, deixando o projetista concentrado na parte mais específica do sistema. O algoritmo de controle de ganho através da análise de histograma demonstrou ser além de funcional, altamente flexível, pois pode ser aplicado a qualquer câmera, independente do tipo do sensor. Este algoritmo pode ser aplicado a tipos diferentes de sensores, com diferentes taxas de aquisição e transmissão de imagens. Este ambiente baseado em computação reconfigurável proporciona alta performance e flexibilidade no modo de implementação, possibilitando que o hardware seja configurado para satisfazer situações que exigem alto desempenho, que pode ser obtido através do paralelismo de operações. Esta arquitetura ainda possibilita a configuração de processadores que executam operações em software em conjunto com operações executadas em hardware. O sistema final controla a câmera CMOS de maneira adequada às aplicações robóticas de tempo real

Year

2011

Creators

Dráusio Linardi Rossi