RCAAP Repository
O efeito do uso de diferentes formas de extração de termos na compreensibilidade e representatividade dos termos em coleções textuais na língua portuguesa
A extração de termos em coleções textuais, que é uma atividade da etapa de Pré-Processamento da Mineração de Textos, pode ser empregada para diversos fins nos processos de extração de conhecimento. Esses termos devem ser cuidadosamente extraídos, uma vez que os resultados de todo o processo dependerão, em grande parte, da \"qualidade\" dos termos obtidos. A \"qualidade\" dos termos, neste trabalho, abrange tanto a representatividade dos termos no domínio em questão como sua compreensibilidade. Tendo em vista sua importância, neste trabalho, avaliou-se o efeito do uso de diferentes técnicas de simplificação de termos na compreensibilidade e representatividade dos termos em coleções textuais na Língua Portuguesa. Os termos foram extraídos seguindo os passos da metodologia apresentada neste trabalho e as técnicas utilizadas durante essa atividade de extração foram a radicalização, lematização e substantivação. Para apoiar tal metodologia, foi desenvolvida uma ferramenta, a ExtraT (Ferramenta para Extração de Termos). Visando garantir a \"qualidade\" dos termos extraídos, os mesmos são avaliados objetiva e subjetivamente. As avaliações subjetivas, ou seja, com o auxílio de especialistas do domínio em questão, abrangem a representatividade dos termos em seus respectivos documentos, a compreensibilidade dos termos obtidos ao utilizar cada técnica e a preferência geral subjetiva dos especialistas em cada técnica. As avaliações objetivas, que são auxiliadas por uma ferramenta desenvolvida (a TaxEM - Taxonomia em XML da Embrapa), levam em consideração a quantidade de termos extraídos por cada técnica, além de abranger tambéem a representatividade dos termos extraídos a partir de cada técnica em relação aos seus respectivos documentos. Essa avaliação objetiva da representatividade dos termos utiliza como suporte a medida CTW (Context Term Weight). Oito coleções de textos reais do domínio de agronegócio foram utilizadas na avaliaçao experimental. Como resultado foram indicadas algumas das características positivas e negativas da utilização das técnicas de simplificação de termos, mostrando que a escolha pelo uso de alguma dessas técnicas para o domínio em questão depende do objetivo principal pré-estabelecido, que pode ser desde a necessidade de se ter termos compreensíveis para o usuário até a necessidade de se trabalhar com uma menor quantidade de termos
2009
Merley da Silva Conrado
Reduzindo a dispersão dos atrasos em sistemas de tempo real soft com restrições de média de tempo de resposta
A Qualidade de Serviço oferece aos Sistemas de Tempo Real garantias das restrições temporais de aplicações tais como comércio eletrônico, vídeo conferência, telemedicina, entre outras que necessitam de confiabilidade e desempenho para efetivação dos seus serviços. Contribuições nessas áreas têm focado a provisão de qualidade de serviço em termos absolutos, descritos num limite máximo de média de tempo de atendimento, destinado às aplicações Web. Todavia, o controle de qualidade baseado em tempo médio de resposta durante todo o período de serviço prestado, não restringe os tempos de resposta quanto a sua dispersão. Um valor médio razoável pode ser resultado da combinação de tempos de resposta elevados e pequenos. O objetivo deste trabalho é reduzir a dispersão dos atrasos em sistemas escalonados com a política EBS (Exigency Based Scheduling ), definidos pela diferença positiva entre o tempo de resposta da requisição do usuário e o valor médio contratado, em um modelo de contrato determinado por janelas deslizantes de operações. A EBS é uma política de escalonamento que define um modelo de contratos de tempo médio de resposta avaliados durante todo o tempo de serviço. Avalia-se a dispersão dos atrasos, pois, é preferível que haja a possibilidade dos tempos de resposta ficarem substancialmente abaixo da média contratada. Os resultados são obtidos utilizando métodos de simulação dos algoritmos desenvolvidos durante o projeto
e-Termos: Um ambiente colaborativo web de gestão terminológica
Em uma de suas definções, a Terminologia representa o conjunto de princípios e métodos adotados no processo de gestão e criação de produtos terminológicos, tais como glossários e dicionários de termos. A sistematização desses métodos envolve a aplicação de ferramentas computacionais específicas e compatíveis com as tarefas terminológicas, contribuindo para o desenvolvimento desses produtos e a difusão de conhecimento especializado. Entretanto, principalmente no Brasil, a combinação da Terminologia e Informática é incipiente, e dentre as atividades do trabalho terminológico é comum a utilização de várias ferramentas não especializados para esse fim. Isso torna o trabalho dos terminólogos muito moroso, pois esse trabalho geralmente é feito por uma equipe multidisciplinar que deve ter acesso, a todo o momento, à versão mais atual das várias etapas da geração de um produto terminológico. Além disso, deixa o gerenciamento dos dados mais complicado, pois não existe um padrão de entrada e saída definido para os programas. Apoiado nos pressupostos da Teoria Comunicativa da Terminologia (TCT), este trabalho apresenta a proposta de desenvolvimento e avaliação do e- Termos, um Ambiente ColaborativoWeb composto por seis módulos de trabalho bem definidos, cujo propósito é automatizar as tarefas de gestão e criação de produtos terminológicos. Cada módulo do e-Termos possui a responsabilidade de abrigar tarefas inerentes ao processo de criação das terminologias, sendo atreladas a eles diferentes ferramentas de apoio lingüístico, que possuem a função de dar suporte às atividades de Processamento de Língua Natural envolvidas nesse processo. Além delas, há também ferramentas colaborativas, designadas para dar apoio às necessidades comunicacionais e de interação da equipe de trabalho. Particularmente com relação ao processo de avaliação proposto, uma de suas características é a capacidade de ser executado em um tempo curto, viabilizando a avaliação controlada de vários grupos, mas executada no ambiente de trabalho do público alvo. As principais contribuições desta pesquisa são o aspecto colaborativo instanciado na prática terminológica, a criação flexível da Ficha Terminológica, a possibilidade didática de uso para o ensino de terminologia, lexicografia e tradução e o processo de avaliação para sistemas colaborativos desenvolvido para o e-Termos, que combina Cenários de Uso e um Questionário de Pesquisa. Utilizando tecnologias Web e da área de Computer Supported Collaborative Work (CSCW) para o desenvolvimento da sua arquitetura computacional colaborativa, o e-Termos apresenta-se como um ambiente inovador para a pesquisa terminolóogica assistida por computador, pois automatiza um método prático que exp~oe os postulados da terminologia de orientação descritiva e evidencia todas as etapas do processo de criação de produtos terminológicos com o inédito diferencial colaborativo. Para certificar este êxito, o e-Termos tem recebido um número crescente de novas propostas de projeto, tendo até Agosto de 2009 mais de 130 usuários cadastrados, alocados em 68 diferentes projetos terminológicos
2009
Leandro Henrique Mendonça de Oliveira
Uma contribuição para o teste baseado em defeitos de software orientado a aspectos
A Programação Orientada a Aspectos (POA) é uma técnica contemporânea de desenvolvimento de software fortemente baseada no princípio da separação de interesses. Ela tem como objetivo tratar de problemas de modularização de software por meio da introdução do aspecto como uma nova unidade de implementação que encapsula comportamento relacionado aos interesses transversais do software. A despeito dos benefícios que podem ser alcançados com o uso da POA, seus mecanismos de implementação representam novas potenciais fontes de defeitos que devem ser tratados durante a fase de teste de software. Nesse contexto, o teste de mutação consiste em um critério de seleção de testes baseado em defeitos que tem sido bastante investigado para demonstrar a ausência de defeitos pré-especifiados no software. Acredita-se que o teste de mutação seja uma ferramenta adequada para lidar com as particularidades de técnicas de programação contemporâneas como a POA. Entretanto, até o presente momento, as poucas iniciativas para adaptar o teste de mutação para o contexto de programas orientados a aspectos (OA) apresentam cobertura limitada em relação aos tipos de defeitos simulados, ou ainda requerem adequado apoio automatizado e avaliações. Esta tese visa a mitigar essas limitações por meio da definição de uma abordagem abrangente de teste de mutação para programas OA escritos na linguagem AspectJ. A tese inicia como uma investigação da propensão a defeitos de programas OA e define uma taxonomia de defeitos para tais programas. A taxonomia inclui uma variedade de tipos de defeitos e serviu como base para a definição de um conjunto de operadores de mutação para programas OA. Suporte automatizado para a aplicação dos operadores também foi disponibilizado. Uma série de estudos quantitativos mostra que a taxonomia de defeitos proposta é suficiente para classificar defeitos encontrados em vários sistemas OA. Os estudos também mostram que os operadores de mutação propostos são capazes de simular defeitos que podem não ser relevados por conjuntos de teste pré-existentes, não derivados para cobrir mutantes. Além disso, observou-se que o esforço requerido para evoluir tais conjuntos de teste de forma a torná-los adequados para os requisitos gerados pelos operadores
2010
Fabiano Cutigi Ferrari
Um estratégia para geração de seqüências de verificação para máquinas de estados finitos
O teste baseado em modelos tem como objetivo auxiliar a atividade de testes, gerando conjuntos de casos de teste a partir de modelos, como Máquinas de Estados Finitos (MEFs). Diversos métodos de geração de conjuntos de caso de teste têm sido propostos ao longo das últimas décadas, com algumas contribuições recentes. Dentre esses trabalhos, há os que geram seqüências de verificação que são conjuntos de caso de teste formados por uma única seqüência e que são capazes de detectar os defeitos de uma implementação cujo comportamento pode ser modelado a partir de uma MEF. Neste trabalho é proposto um algoritmo de geração de seqüências de verificação que tem a finalidade de gerar seqüências menores que as seqüências geradas pelos métodos existentes. O algoritmo, que é baseado na técnica de algoritmos genéticos e nas condições de suficiência para a completude de casos de teste, consiste basicamente em criar novas seqüências a partir de seqüências menores. Por meio de mutações, novas seqüências são geradas pelo algoritmo. As condições de suficiência são utilizadas para determinar quais seqüências geradas são seqüências de verificação. Também são apresentados neste trabalho os estudos experimentais realizados para determinar o comportamento do algoritmo diante de diferentes contextos
2010
Paulo Henrique Ribeiro
Integrando mineração de séries temporais e fractais para encontrar padrões e eventos extremos em bases de dados climáticas e de sensoriamento remoto
Esta tese apresenta novos metodos baseados na teoria dos fractais e em tecnicas de mineração de dados para dar suporte ao monitoramento agrícola em escala regional, mais especicamente areas com plantações de cana-de-açucar que tem um papel importante na economia brasileira como uma alternativa viavel para a substituição de combustíveis fósseis. Uma vez que o clima tem um grande impacto na agricultura, os agrometeorologistas utilizam dados climáticos associados a índices agrometeorológicos e mais recentemente dados provenientes de satélites para apoiar a tomada de decisão. Neste sentido, foi proposto um método que utiliza a dimensão fractal para identicar mudanças de tendências nas séries climáticas juntamente com um módulo de análise estatística para definir quais atributos são responsáveis por essas alterações de comportamento. Além disso, foram propostos dois métodos de medidas de similaridade para auxiliar na comparação de diferentes regiões agrícolas representadas por múltiplas variáveis provenientes de dados meteorológicos e imagens de sensoriamento remoto. Diante da importância de se estudar os extremos climáticos que podem se intensicar dado os cenários que preveem mudanças globais no clima, foi proposto o algoritmo CLIPSMiner que identifica padrões relevantes e extremos em séries climáticas. CLIPSMiner também permite a identificação de correlação de múltiplas séries considerando defasagem de tempo e encontra padrões de acordo com parâmetros que podem ser calibrados pelos usuários. A busca por padrões de associação entre séries foi alcançada por meio de duas abordagens distintas. A primeira delas integrou o cálculo da correlação de dimensão fractal com uma técnica para tornar os valores contínuos das séries em intervalos discretos e um algoritmo de regras de associação gerando o método Apriori-FD. Embora tenha identificado padrões interessantes em relação a temperatura, este método não conseguiu lidar de forma apropriada com defasagem temporal. Foi proposto então o algoritmo CLEARMiner que de forma não-supervisionada minera padrões em uma série associando-os a padrões em outras séries considerando a possibilidade de defasagem temporal. Os métodos propostos foram comparados a técnicas similares e avaliados por um grupo composto por meteorologistas, agrometeorologistas e especialistas em sensoriamento remoto. Os experimentos realizados mostraram que a aplicação de técnicas de mineração de dados e fractais contribui para melhorar a análise dos dados agrometeorológicos e de satélite auxiliando no trabalho de pesquisadores, além de se configurar como uma ferramenta importante para apoiar a tomada de decisão no agronegócio
2010
Luciana Alvim Santos Romani
Aspectos de geometria diferencial em modelos estatísticos
Nesta dissertação de mestrado, sumarizamos alguns conceitos básicos de geometria diferencial e estudamos a conexão existente entre geometria diferencial e modelos estatísticos. Assim, calculamos medidas geométricas associadas aos modelos estatísticos e estudamos os efeitos de uma boa parametrização nas inferências obtidas. Na nova parametrização, verificamos se a precisão dos resultados da inferência melhoram e quais são as relações existentes com as medidas geométricas. Várias aplicações são consideradas, especialmente com modelos para dados de sobrevivência censurados ou no e modelos não-lineares. Também estudamos os efeitos de uma parametrização em inferência Bayesiana, especialmente usando algoritmos de simulação de amostras MCMC (Monte Carlo em Cadeias de Markov).
Interface gráfica para um ambiente de escalonamento flexível e dinâmico
Encontra-se em desenvolvimento no Laboratório de Sistemas Distribuídos e Programação Concorrente do ICMC-USP um ambiente para escalonamento de processos denominado AMIGO (DynA Mica! FlexIble SchedulinG EnvirOnment). Esse ambiente é organizado em duas camadas principais. Uma camada inferior possui os módulos responsáveis pelo escalonamento e pelo relacionamento entre as aplicações dos usuários, as políticas de escalonamento disponíveis e o ambiente de passagem de mensagens. Uma camada superior composta por uma interface gráfica, na qual o usuário tem acesso a várias opções para configurar o ambiente e para configurar o modo que as políticas de escalonamento serão usadas. Este trabalho tem como objetivo o desenvolvimento da interface gráfica da camada superior do AMIGO, que permite cadastrar classes de software, o hardware utilizado, as políticas de escalonamento disponíveis e as métricas a serem utilizadas para o monitoramento das políticas de escalonamento consideradas pelo AMIGO. A interface gráfica desenvolvida neste trabalho foi projetada considerando dois módulos: Front End (desenvolvido em TCL/TK, é responsável por captar os dados definidos pelo usuário e ativar a execução da função solicitada) e Back End (desenvolvido em C e responsável por executar as funcionalidades das tarefas definidas pelo usuário).
2001
Arion de Campos Junior
Uma ferramenta de sonificação para visualização distribuída na internet
O presente trabalho de mestrado é parte de um projeto em andamento ICMC-USP denominado Power Vis que desenvolve pesquisa nas áreas de visualização científica, sonificação de dados e em aplicações reais das técnicas desenvolvidas. A visualização científica é uma área da computação gráfica que abrange um conjunto de técnicas para a geração de representações gráficas a partir de um conjunto de dados. Algumas vezes ses conjuntos de dados formam imagens complexas e de difícil entendimento, o que to :na difícil sua apresentação em uni ambiente bi-dimensional como a tela do computador. Uma alternativa para amenizar tais problemas é o uso de som como apoio ás técnicas visuais. A área da computação responsável pelo estudo de mapeamentos sonoros de conjuntos de dados com o objetivo de exibir algum tipo de informação é conhecida como sonificação. Este trabalho apresenta uma evolução de um trabalho em sonificação desenvolvido anteriormente (SVoI) para apoio à visualização de dados científicos volumétricos. Os processos visuais apoiados pela sonificação neste trabalho são a geração de isosuperfícies e o rendering volume métrico direto. A versão aqui implementada, além de reorganizar o código e aumentar sua funcionalidade, implementa duas estratégias para a evolução do sistema: o acesso à suas funções pela internet usando Java, e a distribuição de algumas funções de geração de sons e imagens usando COBRA.
UCL-uma linguagem de comunicação para agentes de software
Uma pane impo tante, da proposta dos agentes de software, é o princípio que esses agentes podem funcionar de foJma mais eficiente quando trabalham em grupos. Para que a cooperação entre agentes tenha suc so, é requerida comunicação entre eles. Para que essa comunicação seja possível precisa-se de uma Linguagem de Comunicação entre Agentes (em inglês Agent Communication Langu e, ou ACL). Dentro de uma ACL, toma-se importante a forma como são comunicadas as mensagins, isto é, se as mensagens expressam adequadamente seu propósito sob um ponto de vista sesr4tico. O objetivo dest trabalho é a especificação de urna nova ACL, chamada UCL Universal Communication Language, que se preocupa com a descrição da estrutura das mensagens, com o modelo semântico e ct,m suporte a protocolos para interação enfie agentes (de software ou humanos). Além disso, importante explorar, no contexto deste trabalho, a utilização do padrão XML (Extensible Markup Language), para atribuir à linguagem UCL meios para uma fácil integração à Internet. Por isso a linguÀigem UCL foi implementada no padrão XML. Foi desenvolvid também um protótipo de enconverter-deconverter, que serviu como ferramenta para experi4entação e teste da proposta de linguagem apresentada. Esse protótipo permite a conversão de nglês para UCL e de UCL para inglês, ele usou ferramentas e programas abertos, estando disponífel para uso de todos sob a GPL (ONU Public License).
2001
Carlos Alberto Estombelo Montesco
Uso de métodos MCMC para análise Bayesiana de dados de sobrevivência na presença de covariáveis
Nesta dissertação estamos interessados na análise Bayesiana de dados de sobrevivência médicos com observações censuradas e na presença de uma ou mais covariáveis. Em muitos casos, podemos assumir um modelo de regressão paramétrica para os dados como uma alternativa aos modelos de regressão não paramétricas. Em casos especiais, podemos precisar de uma regressão paramétrica com uma distribuição mais geral para os dados de sobrevivência como uma mistura de distribuições. Um dos objetivos principais do projeto é relacionado ao uso de misturas de distribuições paramétricas para a variável erro nos modelos log-linerares. No contexto Bayesiano utilizamos técnicas de simulação de Monte Carlo em Cadeias de Markov (MCMC) e destacamos a utilização dos softwares \"Ox \" e \"VVinBugs\" como grandes alternativas para os problemas referente ao tempo de execução do§ algoritmos computacionais.
2001
Cillene da Silva Nunes de Souza
Pré-processamento para extração de conhecimento de bases textuais
A descoberta de conhecimento em bases de dados é uma área de pesquisa que tem crescido rapidamente, e cujo desenvolvimento tem. sido dirigido ao benefício das necessidades práticas. sociais e econômicas. entre outras. Entretanto. mesmo em bases de dados podem estar presentes campos importantes que não são considerados na análise, como aqueles preenchidos com informações textuais. Essas informações não estão presentes apenas em tabelas, mias também em diversos documentos que são disponibilizados e acessados através da Internet. Para tornar a descoberta de conhecimento em textos possível, tem-se associado estratégias de preparação/pré-proccssamento de textos e técnicas utilizadas no processo Data Mining. Essa associação vem sendo denominada de processo Text Mining. Tendo em vista a importância da preparação dos textos. neste trabalho foi projetado e construído um módulo de pré-processamento de textos, com a finalidade de tornar possível a realização do processo Text Mining considerando textos em português. Devido ao fato de que muitas estratégias e/ou ferramentas estarem disponíveis somente para o inglês, a possibilidade de realizar a descoberta de padrões em textos em português pode significar o alcance de novos horizontes era termos de oportunidades e informações desconhecidas.
2001
Cristiane Yae- Mi Imamura
Projeto de uma rede neural usada no reconhecimento de gestos por robôs móveis utilizando-se computação reconfigurável
A Robótica é uma área de pesquisa que tem evoluído muito nas décadas, e tem recebido grande atenção pela comunidade científica. As principais limitações dos sistemas robóticos atuais estão no controle dessas máquinas complexas. É importante que sejam desenvolvidos algoritmos inteligentes e suficiente para controlar os robôs de maneira apropriada, e que esses algoritmos sejam executados de maneira eficiente. A utilizaçõa de hardware para a execução desses algoritmos é uma alternativa interessante para se conseguir um bom desempenho. Essa dissertação apresenta a implementação de neural artificial, utilizada no reconhecimento de gestos por robôs móveis. Para tanto, é utilizada a tecnologia FPGA, que pérmite o desenvolvimento de hardware com rapidez, eficiência e baixo custo. Após o desenvolvimento, são apresentadas comparações de desempenho e conclusões sobre as implementações.
Aprendizado de máquina em heurísticas de decomposição para problemas de dimensionamento de lotes
Neste trabalho, são propostas heurísticas baseadas na partição do conjunto de variáveis dos modelos matemáticos, as quais são utilizadas para a resolução de dois problemas de dimensionamento de lotes. As heurísticas desenvolvidas são compostas de duas fases: construção de uma solução inicial e melhoria. As soluções iniciais são obtidas por meio da heurística relax-and-fix ou por um resolvedor comercial de otimização (primeira solução factível obtida). As heurísticas de melhoria são do tipo fix-and-optimize com partições clássicas e ADN (Automatically designed neighborhoods), que constrói uma vizinhança de forma automática, utilizando aprendizado de máquina não supervisionado, ou seja, usamos dois algoritmos de agrupamento: o k-means e o k-medoids. Nos experimentos computacionais, abordamos o problema de dimensionamento de lotes com múltiplas plantas distintas e o problema de dimensionamento de lotes multiestágio. Para realizar a comparação entre as heurísticas, foram utilizadas instâncias da literatura e as soluções são comparadas com as soluções obtidas por um otimizador comercial.
Uma abordagem de modelagem de conteúdo educacional para plataforma de aprendizagem móvel baseada na engenharia dirigida por modelos
O cenário emergente do uso de ambientes computacionais para apoiar o processo de ensino e aprendizagem tem apresentado desafios aos profissionais desenvolvedores de aplicações e produtores de conteúdo educacional. Nesse contexto, a evolução da computação móvel contribuiu para o surgimento da modalidade de ensino e aprendizagem denominada de aprendizagem móvel (m-learning). A aprendizagem móvel faz uso da tecnologia móvel e de dispositivos móveis como meio de disseminação de conteúdo ao aprendiz. No entanto, a geração de conteúdo educacional para dispositivos móveis requer atenção especial a questões como: (i) restrições inerentes dos dispositivos móveis, como por exemplo a tela reduzida; (ii) e a complexidade de desenvolver aplicações móveis para a variedade de plataformas existentes. O presente trabalho de pesquisa propõe uma abordagem de modelagem para conteúdo educacional móvel, denominada EDUCOM.ML, que é apoiada pela MDE (Model-Driven Engineering) e a IMA-CID (Integrated Modeling Approach - Conceptual, Instructional, Didactic). EDUCOM.ML propõe uma abordagem de modelagem que envolve a criação de modelos responsáveis pela estruturação do conteúdo educacional, bem como por um conjunto de metamodelos que estruturam e modelam uma plataforma móvel. Além disso, dois protótipos foram desenvolvidos, o primeiro é a ferramenta web EDUCOM TOOL, que permite a elaboração de conteúdo educacional de um domínio do conhecimento, enquanto que o segundo é a aplicação educacional móvel EDUCOMAPP, que disponibiliza ao aprendiz o conteúdo educacional projetado na EDUCOM TOOL. Para verificar a percepção de utilidade da EDUCOM.ML por professores, foi elaborada uma avaliação e os resultados obtidos juntos aos participantes sugerem que a EDUCOM.ML pode contribuir no processo de elaboração de conteúdo educacional para aplicações educacionais móveis.
2021
Marcus Vinicius Ribeiro de Carvalho
PROTEUM-RS/PN: uma ferramenta para a validação de redes de Petri baseada na análise de mutantes.
Sistemas Reativos caracterizam-se por reagir continuamente a estímulos externos e internos e controlar atividades humanas. A ocorrência de falhas nesses sistemas pode resultar em grandes prejuízos. Dessa forma, o uso de métodos e técnicas rigorosas para a especificação do comportamento desse tipo de sistema é essencial, buscando-se evitar inconsistências e ambigüidades no modelo. Redes de Petri é uma das técnicas que têm sido usadas para a especificação de sistemas reativos. Teste e validação são atividades essenciais na produção dessa classe de sistemas. Por isso, o critério Análise de Mutantes, um critério de teste baseado em erros normalmente aplicado ao teste de programas, tem sido explorado no contexto de teste de especificações de sistemas reativos. É necessário o desenvolvimento de ferramentas que apóiem sua utilização, visto que a aplicação manual do critério é impraticável. O objetivo deste trabalho é a implementação da ferramenta Proteum-RS/PN, que apóia a aplicação do critério Análise de Mutantes para validar especificações baseadas em Redes de Petri.
2000
Adenilso da Silva Simão
O problema de minimização de pilhas abertas - novas contribuições
O Problema de Minimização do Número Máximo de Pilhas Abertas (MOSP, do inglês minimization of open stacks problem) é um problema de otimização combinatória da família NP-Difícil que vem recebendo grande atenção na literatura especializada. Este trabalho apresenta novas contribuições em termos de modelos e técnicas de resolução para o problema. A primeira parte deste trabalho lidou com modelos matemáticos, sendo analisados os modelos existentes que se baseiam em programação inteira mista. Variações de um modelo da literatura foram propostas, com o objetivo de tentar diminuir o tempo de execução necessário para se obter uma solução exata com a utilização de pacotes comerciais. Os resultados mostraram que as propostas são capazes de acelerar a solução de algumas classes de instâncias mas, que de maneira geral, métodos baseados em relaxação linear encontram dificuldade em provar a otimalidade devido à baixa qualidade dos limitantes inferiores. Uma outra contribuição deste trabalho foi o desenvolvimento de um modelo conjunto para o problema MOSP e para o problema de minimização da duração de pedidos (MORP, do inglês minimization of order spread problem). Este modelo propõe um framework unificado em que os dois problemas podem ser resolvidos ao mesmo tempo, tendo suas funções objetivo individuais ponderadas através de pesos definidos pelo usuário. A segunda parte do trabalho voltou-se para o desenvolvimento de métodos heurísticos para o MOSP. Duas estratégias de solução foram desenvolvidas. O primeiro método propõe uma transformação heurística entre o problema MOSP e o clássico problema do caixeiro viajente (TSP, do inglês traveling salesman problem). A partir de uma representação em grafo do MOSP, o TSP é definido por meio de uma regra de atribuição de distâncias baseadas nos graus dos nós. Nos testes computacionais, a estratégia proposta mostrou-se eficiente em relação às heurísticas específicas para o MOSP, obtendo a solução ótima do MOSP em 80,42% das instâncias testadas e sendo competitiva em termos de tempo computacional com algumas das melhores heurísticas da literatura. O segundo método heurístico proposto utilizou a ideia de decomposição. De fato, neste método, um corte no grafo associado ao problema original divide-o em problemas menores, que são resolvidos. A solução global é obtida através da junção das soluções dos subproblemas e, em alguns casos, é possível demonstrar a otimalidade da solução obtida. Testes computacionais indicam a validade da proposta e apontam caminhos para pesquisas futuras
Uso de meta-aprendizado na recomendação de meta-heurísticas para o problema do caixeiro viajante
O problema do caixeiro viajante (PCV) é um problema clássico de otimização que possui diversas variações, aplicações e instâncias. Encontrar a solução ótima para muitas instâncias desse problema é geralmente muito difícil devido o alto custo computacional. Vários métodos de otimização, conhecidos como meta-heurísticas (MHs), são capazes de encontrar boas soluções para o PCV. Muitos algoritmos baseados em diversas MHs têm sido propostos e investigados para diferentes variações do PCV. Como não existe um algoritmo universal que encontre a melhor solução para todas as instâncias de um problema, diferentes MHs podem prover a melhor solução para diferentes instâncias do PCV. Desse modo, a seleção a priori da MH que produza a melhor solução para uma dada instância é uma tarefa difícil. A pesquisa desenvolvida nesta tese investiga o uso de abordagens de meta-aprendizado para selecionar as MHs mais promissoras para novas instâncias de PCV. Essas abordagens induzem meta-modelos preditivos a partir do treinamento das técnicas de aprendizado de máquina em um conjunto de meta-dados. Cada meta-exemplo, em nosso conjunto de meta-dados, representa uma instância de PCV descrita por características (meta-atributos) do PCV e pelo desempenho das MHs (meta-atributo alvo) para essa instância. Os meta-modelos induzidos são usados para indicar os valores do meta-atributo alvo para novas instâncias do PCV. Vários experimentos foram realizados durante a investigação desta pesquisa e resultados importantes foram obtidos
Sessões de comunicações tolerantes a rupturas: uma camada de Socket para aplicações cientes de mobilidade na Internet
Com a heterogeneidade de tecnologias de comunicação sem fio presentes na borda de redes de acesso, serviços providos na Internet podem ser acessados de forma quasi ubíqua através de dispositivos móveis ou portáteis. O acesso a esses serviços, contudo, está associado a atrasos e rupturas frequentes na comunicação devido a razões inerentes à mobilidade do dispositivo, como: i) perda de sinal em locais onde há pouca ou nenhuma cobertura de acesso móvel; ii) erros no quadro de dados durante a transmissão e, consequentemente, perdas de pacotes, que podem ser ocasionados por interferência no sinal ou enfraquecimento deste pelo distanciamento do dispositivo em relação à Estação Base; iii) mudanças de endereços IP durante transmissões em andamento causadas pela migração do dispositivo entre diferentes redes. Como consequência, aplicações falham com a ruptura de comunicações orientadas a conexão. Tratar a mobilidade de forma transparente à aplicação é um dos desafios da Computação Móvel e Ubíqua que vem sendo pesquisado ao longo da última década. Soluções foram propostas para operarem desde a Camada de Enlace à Aplicação. Muitas delas, entretanto, exigem modificações na pilha de protocolos TCP/IP e adição de infraestrutura específica de rede no suporte à comunicação fim-a-fim. Além de elevar o custo das etapas de implantação e manutenção, estratégias intrusivas e dependentes de infraestrutura adicional podem não apresentar desempenho satisfatório. Nesse contexto, propomos tratar a mobilidade no nível da própria aplicação através de Sessões de Comunicação que não falham com atrasos e desconexões. Operando somente nos nós-fim e de modo transparente às Camadas adjacentes de Aplicação e Transporte, as sessões não requerem infraestrutura adicional para intermediar ou controlar a comunicação entre pares, tampouco modificações em protocolos legados da pilha TCP/IP. O conceito de Sessões Tolerantes a Rupturas é implementado através de uma API de propósito geral em sistemas Linux que estende a interface de Sockets. A API é, na prática, uma camada transparente sobre o Socket que provê Ciência de Mobilidade à aplicação através de mecanismos para: acompanhar a localização de nós ao longo da duração de uma sessão; detectar rupturas nas transmissões causadas pela mobilidade do nó ou de seu par remoto; suspender e retomar sessões de forma eficiente, segura e confiável. Experimentos conduzidos em ambientes emulados e reais com equipamentos de uso comercial mostram a eficiência das sessões. Além de introduzir baixa degradação na vazão fim-a-fim, rupturas na transmissão podem ser detectadas em microssegundos e sessões suspensas são reabertas em milissegundos. Com um desempenho superior a solução de mobilidade geral da Camada IP, as sessões não necessitam de adaptações de software em equipamentos de rede
2012
Bruno Yuji Lino Kimura
SoS-Reúso: um SoS do tipo direcionado para facilitar o reúso de software
Reúso de software, principalmente quando apoiado por ferramentas computacionais, é uma forma de enfrentar os constantes desafios da Engenharia de Software em aumentar a produtividade e qualidade no desenvolvimento de software. Diversos ambientes de apoio ao reúso de software têm sido propostos, em sua maioria com objetivos específicos, por exemplo, repositórios de componentes, ferramentas para geração de aplicações e ferramentas para configuração de linhas de produtos. Entretanto, a integração desses ambientes é, muitas vezes, deficiente e deixada por conta do próprio desenvolvedor. Por outro lado, Sistemas-de-Sistemas (SoS) constituem uma forma de integrar sistemas independentes e seus relacionamentos, formando um todo maior que a soma das partes. Dessa forma, o SoS permite alcançar objetivos complexos que não poderiam ser facilmente alcançados individualmente pelos seus sistemas constituintes. Em um SoS, comportamentos emergentes podem surgir a qualquer momento ou terem sido previamente implementados. Por serem recentes, os conceitos de SoS ainda apresentam uma vasta gama de tópicos em aberto, entre eles sua aplicação a ambientes de reúso de software. Assim, neste trabalho, investigou-se como integrar ambientes de reúso com base nos conceitos de SoS. O SoS resultante, denominado SoS-Reúso, visa facilitar a implementação de comportamentos emergentes relacionados ao reúso de software. Com isso, pode-se potencializar a atividade de reúso, facilitando a busca por ativos reusáveis em diferentes sistemas constituintes. Para colocar em prática essa ideia, desenvolveu-se um simulador do SoS-Reúso, denominado P-SoS-Reúso. Realizou-se um estudo qualitativo da usabilidade e adequação funcional do P-SoS-Reúso, a fim de obter do usuário feedbacks em relação ao seu uso. A abordagem utilizada no desenvolvimento do SoS-Reúso poderá ser adaptada futuramente para integrar outros tipos de sistemas, os quais poderiam se beneficiar da abordagem baseada em SoS.
2017
Iohan Gonçalves Vargas