Repositório RCAAP

Um processo para sistemas web com foco em acessibilidade e usabilidade

Com o aumento do uso e da complexidade de sistemas web, o desenvolvimento de tais sistemas com qualidade exige a adoção de uma abordagem sistemática e bem definida. Assim, a engenharia web é uma disciplina essencial que considera, além de características da engenharia de software, fatores inerentes aos sistemas web, como a multiplicidade de perfis de usuários. A engenharia web é apoiada por processos, métodos, técnicas e ferramentas que são elementos fundamentais para o desenvolvimento de sistemas web, os quais devem ser adequados para fornecer suporte às ações inerentes ao projeto e à implementação. Esses elementos devem ser selecionados, combinados e tecnicamente implementados de modo a produzir um sistema web acessível e usável. Nesta tese é proposto um processo de desenvolvimento que possui fases gerais bem definidas para a inserção de requisitos de acessibilidade e usabilidade no desenvolvimento de sistemas web, garantindo o seu uso pela maioria das pessoas e facilitando seus meios de acesso. Um estudo de caso foi realizado para verificar a efetividade da aplicação do processo formalizado, o qual possibilitou o desenvolvimento de um sistema acadêmico de agendamento de bancas. Considerando-se a dificuldade prática de avaliar diretamente o processo, foram realizados um experimento controlado e um estudo de viabilidade comparando o sistema acadêmico desenvolvido com outro sistema de mesmo propósito e funcionalidades, mas desenvolvido de maneira ad-hoc. Por meio das avaliações realizadas nos dois sistemas de agendamento de bancas, indiretamente avaliou-se o processo formalizado e foram encontrados fortes indícios sobre a efetividade do processo proposto. Adicionalmente, foi criado um instrumento de medição objetivo e quantitativo das características de acessibilidade e usabilidade de um sistema web. Foi também criado um método para avaliar, comparar e melhorar a acessibilidade e a usabilidade de sistemas web existentes. Tanto o instrumento de medição quanto o método de avaliação podem ser aplicados, independentemente, a qualquer sistema web.

Ano

2022-12-06T14:47:11Z

Creators

Ana Luiza Dias

Extração de contexto de reviews para sistemas de recomendação utilizando mineração de textos e opiniões

Atualmente, com a grande sobrecarga de informações, serviços e produtos disponíveis na Web, os usuários tem encontrado dificuldades em identificar o que de fato é relevante para seus interesses e preferências. Sendo assim, sistemas de recomendação estão sendo desenvolvidos e implantados em um número cada vez maior de sites e aplicações com o objetivo de auxiliar os usuários sugerindo itens que atendam às suas preferências e necessidades. A tendência nessa área é a utilização de informações relevantes com o objetivo de gerar recomendações mais personalizadas e precisas aos usuários. Estudos comprovam que o uso de informação contextual tem viabilizado a obtenção de bons resultados na recomendação. Um dos grandes desafios encontrados na área de sistemas de recomendação sensíveis ao contexto refere-se à carência de métodos automáticos para a extração desse tipo de informação. Por outro lado, com o avanço da Web 2.0 e a crescente popularidade de redes sociais e comércio eletrônico, usuários têm sido cada vez mais encorajados a escrever reviews descrevendo suas opiniões sobre os itens. Dessas reviews podem ser extraídas informações importantes a serem utilizadas em sistemas de recomendação como contexto e opiniões. Com isso, o propósito geral deste trabalho de doutorado é avançar as pesquisas da área de sistemas de recomendação sensíveis ao contexto, em especial na extração automática de informações contextuais. Para atender aos objetivos do trabalho, foi realizada uma revisão sistemática da literatura de sistemas de recomendação sensíveis ao contexto que utilizam mineração de opiniões. Levando em consideração a carência de métodos automáticos de extração de contexto assim como a relevância das informações extraídas de reviews de usuários para os sistemas de recomendação, neste trabalho de doutorado foram propostos: (i) um método de recomendação sensível ao contexto, CARM-TOM, que executa desde o pré-processamento das reviews até a geração das recomendações utilizando informações contextuais; (ii) CIET.5embed, uma técnica de extração de contexto baseada em word embeddings; (iii) uma técnica de extração de contexto baseada em regras de associação, a RulesContext; e (iv) uma técnica de extração de contexto baseada em mineração de opiniões no nível dos aspectos, a CEOM. Essas propostas foram avaliadas considerando a base de reviews Yelp, sistemas de recomendação baseados nos vizinhos mais próximos, sistemas de recomendação baseados em fatoração de matrizes e diferentes baselines. Os resultados demonstraram que o uso das informações extraídas pelas técnicas propostas levaram a geração de recomendações mais precisas.

Ano

2022-12-06T14:47:11Z

Creators

Camila Vaccari Sundermann

Detecção e análise de sinais EEG com aplicação em robótica educacional

Com a tecnologia, existem muitas formas de se aprimorar o aprendizado, mesmo fora da sala de aula. Sistemas educacionais têm sido bastante empregados para essa finalidade, inclusive com o uso de robôs, mas ainda pecam em alguns aspectos de interação com os humanos. As interfaces cérebro-computador (BCI) são sistemas que permitem a comunicação entre usuário e computador a partir de informações do cérebro, podendo dar mais robustez aos sistemas robóticos educacionais. As dificuldades dos alunos são claras durantes provas e outras atividades de avaliação, o problema são os erros durante os estudos para essas provas. Para ajudar neste ponto do aprendizado, foi utilizado um sinal evocado no cérebro relacionado à percepção do erro por um usuário, chamado de Error Related Potential (ErrP), que pode ser medido no EEG, uma forma não-invasiva de BCI. Porém, esses sistemas ainda pecam na qualidade do sinal obtido e na acurácia em encontrar esses momentos de erro. Neste trabalho, foi proposto um sistema de detecção do ErrP, passando pela filtragem, extração de características e classificação do sinal. O pré-processamento do sinal passou por filtros FIR e ICA para limpeza de ruídos e artefatos, foram criados vetores de características com as transformadas de Fourier e as famílias Haar e Daucechies de transformadas wavelets. Para classificação, foram comparadas redes neurais (MLP) e de aprendizado profundo (CNN). Os resultados demonstraram uma acurácia de 96% quando o sinal foi aplicado na base criada, e de 77,23% quando aplicada a toda a rede, mostrando ser promissora para utilização em sistemas educacionais. Além disso, mostrou que a diferença entre as famílias wavelets apresentadas neste trabalho foram pequenas, e que sua escolha pode ser feita considerando o tempo para processamento do sinal. Este trabalho serve como um módulo para um sistema educacional maior, que visa preencher algumas lacunas encontradas nos trabalhos disponíveis.

Ano

2022-12-06T14:47:11Z

Creators

Adam Henrique Moreira Pinto

Anotações colaborativas como hiperdocumentos de primeira classe na Web Semântica.

Anotações têm sido associadas a documentos em todas as gerações de sistemas hipermídia. Este trabalho explora o uso de anotações como hiperdocumentos de primeira classe baseados em sua semântica. Nesse contexto, anotações são entidades próprias, na forma de hipertexto, possuindo seus próprios atributos e operações. A Web Semântica é uma extensão da Web atual na qual é dado um significado bem definido à informação, permitindo que informações sejam compreensíveis não só por humanos, mas também por computadores. Este trabalho possui como objetivo prover um serviço aberto, o GroupNote, de suporte a anotações colaborativas como hiperdocumentos de primeira classe na Web Semântica. Para prover esse serviço foram realizadas a modelagem conceitual e a definição e implementação de uma API, a API GroupNote. Como um estudo de caso do serviço GroupNote foi construída a aplicação WebNote, uma ferramenta que permite que usuários tenham seu próprio repositório de anotações na Web.

Ano

2022-12-06T14:47:11Z

Creators

Claudia Akemi Izeki

SiMuS - Uma arquitetura de referência para sistemas multirrobóticos de serviço

Atualmente, os sistemas robóticos têm sido necessários para uma diversidade de novos produtos, como em robôs de serviço e em robôs para ambientes perigosos. Como consequência, um aumento da complexidade desses sistemas e observada, exigindo também atenção considerável para a qualidade e a produtividade. Vale destacar que a complexidade de parte desses sistemas decorre, parcial ou totalmente, da necessidade de se utilizar diversos robôs para compor a solução. Em outra perspectiva, arquiteturas de referência surgiram como um tipo especial de arquitetura de software que consegue agregar conhecimento de domínios específicos, facilitando o desenvolvimento, padronização e evolução de sistemas de software. Nessa perspectiva, arquiteturas de referência foram também propostas para o domínio de robótica e de têm sido consideradas como um elemento importante para o desenvolvimento de sistemas para esse domínio. No entanto, existe uma falta de arquiteturas de referência especializadas em sistemas multirrobóticos de serviço. Assim, a principal contribuição desse trabalho e o apoio ao desenvolvimento de sistemas multirrobóticos de serviço. Para isso, o principal resultado, aqui apresentado, e o estabelecimento da SiMuS, uma arquitetura de referência que agrega o conhecimento e a experiência de como organizar sistemas multirrobóticos de serviço, visando a escalabilidade, evolução e reuso. Para o estabelecimento dessa arquitetura, foi utilizado o ProSA-RA, um processo que sistematiza o projeto, representação e avaliação de arquiteturas de referência. Resultados alcançados por uma inspeção, por meio de checklist, e estudo de caso conduzidos evidenciam que a SiMuS e uma arquitetura de referência viável e reusável para o desenvolvimento de sistemas multirrobóticos de serviço

Ano

2022-12-06T14:47:11Z

Creators

Daniel Feitosa

TOOTEMA: UMA FERRAMENTA PARA A CONSTRUÇÃO DE SISTEMAS TUTORES INTELIGENTES EM MATEMÁTICA

Neste trabalho é apresentada e discutida uma ferramenta que auxilia a construção de Sistemas Tutores Inteligentes - STIs - no domínio da Matemática, denominada TOOTEMA - TOOI (ferramenta) para Tutores de Ensino de MAtemática. O TOOTEMA é um sistema que tem por objetivo ajudar na tarefa de criar e gerenciar o Módulo do Domínio do ARQTEMA (uma arquitetura genérica para Sistemas Tutores em Matemática), acompanhando o autor (professor) na estruturação de grande quantidade de informações. Ao usuário-autor, a ferramenta de autoria fornece facilidades de organização do material instrucional, provê recursos de representação gráfica, visando a consistência e a qualidade do material, além de reduzir o tempo de construção de STI em subdomínios diferentes e, principalmente, de envolver mais diretamente o autor leigo na criação do sistema.

Ano

2022-12-06T14:47:11Z

Creators

Ricardo Hasegawa

ALGORITMO PARA O PROBLEMA DE MULTIFLUXO NÃO LINEAR: UMA APLICAÇÃO AO PROBLEMA DE ROTEAMENTO DE DADOS EM REDES DE COMUTAÇÃO

Nesta dissertação, propomos um novo método de relaxamento para resolver o problema de roteamento de dados em redes de comutação. Este problema pode ser formulado como um problema de multifluxo a critério convexo. Este algoritno resolve subproblemas de simples fluxos e pode ser implementado em paralelo. No primeiro capítulo, relembramos alguns resultados da teoria dos grafos. No segundo, apresentamos o problema de roteamento de dados, bem como sua formulação matemática. O terceiro apresenta um método primal de relaxamento. O quarto é dedicado à apresentação dos resultados computacionais e à analise destes. Na última parte, apresentamos a conclusão e perspectivas de trabalhos futuros.

Ano

2022-12-06T14:47:11Z

Creators

Rosana Maria Luvezute

SISTEMA GERADOR DE STUBS.

Esta dissertação apresenta o projeto e implementação de um sistema gerador de sfubs, para utilização no ambiente computacional do Laboratório de Sistemas Digitais do ICMSC/USP, em plataformas DOS. O gerador de sfubs é uma ferramenta de auxílio ao desenvolvimento de aplicações distribuídas e tem como função criar automaticamente os procedimentos sfubs, a partir da definição dos serviços que serão executados remotamente. Esse software de apoio libera os programadores da implementação de rotinas que envolvam os protocolos básicos de comunicação. Os procedimentos sfubs são responsáveis pela comunicação entre os processos clientes e os serviços oferecidos. Com esses procedimentos, os processos cliente e servidor podem ser compilados e executados separadamente, em máquinas diferentes. Dentre as vantagens do sistema gerador de sfubs, a mais importante, e que está bem caracterizada neste trabalho, é o ganho de produtividade nos projetos de aplicações distribuídas, tornando extremamente atrativa sua adoção nesses projetos. O sistema proposto está implementado na linguagem \"C\" e pode ser utilizado facilmente para a geração de aplicações distribuídas envolvendo equipamentos compatíveis com a linha IBM-PC, executando DOS versão 3 ou superior.

Ano

2022-12-06T14:47:11Z

Creators

Heli Henriques Alcantara Nascimento

ANÁLISE BAYESIANA E DISCRIMINAÇÃO DE MODELOS NÃO LINEARES

É comum, em muitas áreas de investigação científica, a existência de vários modelos de regressão não lineares que podem ser usados para elucidar um mesmo fenômeno. Estando o pesquisador diante de vários modelos alternativos, como escolher qual fornece melhor ajuste? Essa é uma questão de interesse aos estatísticos e muitas estratégias clássicas e Bayesianas de discriminação tem sido propostas na literatura. Nesta dissertação, considerando os modelos não lineares de crescimento sigmóide: Logístico, Gompertz, Tipo-Weibull, Morgan-Mercer-Flodin e Richards, apresentamos uma análise Bayesiana e algumas estratégias (clássicas e Bayesianas) que podem ser usadas em problemas de discriminação de modelos alternativos. Sob o ponto de vista clássico, a discriminação é conduzida com base em conceitos de não linearidade, uma vez que o \"melhor modelo possível\" dentre todos os propostos é aquele que apresenta o comportamento mais próximo do comportamento linear. No contexto Bayesiano, considerando um conjunto de dados, usando uma priori não informativa de Jeffreys, o método de Laplace para aproximar as integrais de interesse e a técnica proposta por Gelfand e Dey (1994) procedemos a discriminação usando as estratégias: Fator de Bayes, critério baseado no conceito de entropia, Pseudo Fator de Bayes e o Fator de Bayes a Posteriori.

Ano

2022-12-06T14:47:11Z

Creators

Josmar Mazucheli

MODULO DE GERAÇÃO DE SEQUENCIAS DE TESTE BASEADA EM MÁQUINAS DE ESTADO FINITO

Máquina de Estado Finito (MEF) é uma técnica de especificação usada para modelar o aspecto comportamental de sistemas e tem sido amplamente utilizada em diversas áreas de aplicação: protocolos de comunicação, telefonia, controle de processos, entre outros. O objetivo deste trabalho consiste em estudar os conceitos fundamentais utilizados no teste e validação de modelos baseados em MEF, com ênfase nos critérios DS [GONE70], UIO [SABN88], W [CHOW78] e Wp [FUJI91]. Dentro deste contexto foi desenvolvida tuna ferramenta, denominada MGASET, que visa a apoiar a aplicação de alguns critérios estudados, fornecendo facilidades para verificação de minimalidade, determinismo, especificação completa, conectividade forte, Máquina de Mealy e alcançabilidade do estado inicial de uma MEF; para gerar seqüência de sincronização, seqüência distingüivel, seqüências únicas de entrada/saída e conjunto de caracterizacão; e gerar, inicialmente, seqüências de teste baseada no critério W.

Ano

2022-12-06T14:47:11Z

Creators

Karen Kiomi Nakazato

"Índices de carga e desempenho em ambientes paralelos/distribuídos - modelagem e métricas"

Esta tese aborda o problema de obtenção de um índice de carga ou de desempenho adequado para utilização no escalonamento de processos em sistemas computacionais heterogêneos paralelos/distribuídos. Uma ampla revisão bibliográfica com a correspondente análise crítica é apresentada. Essa revisão é a base para a comparação das métricas existentes para a avaliação do grau de heterogeneidade/homogeneidade dos sistemas computacionais. Uma nova métrica é proposta neste trabalho, removendo as restrições identificadas no estudo comparativo realizado. Resultados de aplicações dessa nova métrica são apresentados e discutidos. Esta tese propõe também o conceito de heterogeneidade/homogeneidade temporal que pode ser utilizado para futuros aprimoramentos de políticas de escalonamento empregadas em plataformas computacionais heterogêneas paralelas/distribuídas. Um novo índice de desempenho (Vector for Index of Performance - VIP), generalizando o conceito de índice de carga, é proposto com base em uma métrica Euclidiana. Esse novo índice é aplicado na implementação de uma política de escalonamento e amplamente testado através de modelagem e simulação. Os resultados obtidos são apresentados e analisados estatisticamente. É demonstrado que o novo índice leva a bons resultados de modo geral e é apresentado um mapeamento mostrando as vantagens e desvantagens de sua adoção quando comparado às métricas tradicionais.

Ano

2022-12-06T14:47:11Z

Creators

Kalinka Regina Lucas Jaquie Castelo Branco

"Abordagem genética para seleção de um conjunto reduzido de características para construção de ensembles de redes neurais: aplicação à língua eletrônica"

As características irrelevantes, presentes em bases de dados de diversos domínios, deterioram a acurácia de predição de classificadores induzidos por algoritmos de aprendizado de máquina. As bases de dados geradas por uma língua eletrônica são exemplos típicos onde a demasiada quantidade de características irrelevantes e redundantes prejudicam a acurácia dos classificadores induzidos. Para lidar com este problema, duas abordagens podem ser utilizadas. A primeira é a utilização de métodos para seleção de subconjuntos de características. A segunda abordagem é por meio de ensemble de classificadores. Um ensemble deve ser constituído por classificadores diversos e acurados. Uma forma efetiva para construção de ensembles de classificadores é por meio de seleção de características. A seleção de características para ensemble tem o objetivo adicional de encontrar subconjuntos de características que promovam acurácia e diversidade de predição nos classificadores do ensemble. Algoritmos genéticos são técnicas promissoras para seleção de características para ensemble. No entanto, a busca genética, assim como outras estratégias de busca, geralmente visam somente a construção do ensemble, permitindo que todas as características (relevantes, irrelevantes e redundantes) sejam utilizadas. Este trabalho apresenta uma abordagem baseada em algoritmos genéticos para construção de ensembles de redes neurais artificiais com um conjunto reduzido das características totais. Para melhorar a acurácia dos ensembles, duas abordagens diferenciadas para treinamento de redes neurais foram utilizadas. A primeira baseada na interrupção precoce do treinamento com o algoritmo back-propagation e a segunda baseada em otimização multi-objetivo. Os resultados obtidos comprovam a eficácia do algoritmo proposto para construção de ensembles de redes neurais acurados. Também foi constatada sua eficiência na redução das características totais, comprovando que o algoritmo proposto é capaz de construir um ensemble utilizando um conjunto reduzido de características.

Ano

2022-12-06T14:47:11Z

Creators

Ednaldo José Ferreira

Mapeamento semântico entre UNL e componentes de software para execução de requisições imperativas em linguagem natural

A linguagem natural corresponde ao meio mais convencional de comunicação entre as pessoas. O desejo que os seres humanos possuem de se comunicar com as máquinas é evidenciado por pesquisas, que têm sido realizadas desde o final da década de 70, com o objetivo de ter requisições expressas em linguagem natural executadas pelas máquinas. Alguns trabalhos na literatura têm sido propostos com esse fim, entretanto a maioria deles considera requisições expressas apenas em Inglês. Uma maneira de flexibilizar a utilização de várias línguas em sistemas que utilizam linguagem natural é por meio de uma interlíngua, pois essa é uma representação intermediária e processável por máquina das informações contidas em diversas línguas naturais. O trabalho descrito nesta tese propõe que requisições imperativas em linguagem natural sejam convertidas para a interlíngua UNL (Universal Networking Language) e executadas por meio da ativação dos componentes de software apropriados. Para atingir esse objetivo, este trabalho propõe a Arquitetura OntoMap (Ontology-based Semantic Mapping), que utiliza ontologias para realizar o mapeamento semântico entre UNL e componentes de software e para realizar a busca pelos componentes mais apropriados para executar as requisições. A Arquitetura OntoMap conta com (i) um serviço para converter requisições em linguagem natural para UNL; (ii) uma ontologia de alto nível, chamada Ontologia InterComp (Interlíngua-Componentes), que juntamente com regras e inferência, fornece informações semânticas a respeito dos componentes que podem ser utilizados para executar a requisição; (iii) uma Ontologia de Componentes, que relaciona dados das interfaces dos componentes com informações semânticas do domínio de aplicação dos mesmos; e (iv) um Módulo de Busca que utiliza as informações semânticas inferidas e a Ontologia de Componentes para encontrar os componentes apropriados para executar as requisições expressas em linguagem natural. Este trabalho propõe ainda um processo para utilizar a Arquitetura OntoMap em diversos domínios de aplicação e com diferentes conjuntos de componentes. Esse processo foi instanciado considerando componentes desenvolvidos para o domínio de gerenciamento de cursos

Ano

2022-12-06T14:47:11Z

Creators

Flávia Linhalis

Local branching aplicado ao problema de dimensionamento de lotes

O planejamento da produção é uma atividade que avalia decisões para um melhor uso dos recursos disponíveis, visando satisfazer aos objetivos produtivos da empresa ao longo de um horizonte de planejamento. Este trabalho enfoca o problema de dimensionamento de lotes com restrições de capacidade (PDLC), que é uma das tarefas centrais envolvidas no planejamento da produção. O PDLC visa determinar o tamanho dos lotes a serem produzidos em períodos de tempo de um horizonte de planejamento. Os PDLC estudados neste trabalho contemplam duas características importantes: a presença de múltiplos itens e a existência de tempos de preparação para as máquinas. Além disso, são consideradas restrições de capacidade e situações onde o atraso para atender a demanda é permitido (backlogging). Alguns dos modelos estudados permitem que a preparação do ambiente de produção para um dado item possa ser mantida de um período para o seguinte, o que propiciaria a economia de até uma preparação a cada período. Esta característica é chamada de preservação de preparação (carry-over). Também existem situações onde a preparação de uma máquina começa em um período e termina no período seguinte. Na literatura, esta característica é chamada de set-up crossover. Este trabalho tem três metas centrais: a) avaliar diferentes configurações do software comercial ILOG CPLEX 11 para a solução dos PDLC estudados; b) estudar a influência na solução dos PDLC quando se acrescenta a possibilidade de atraso na demanda, de preservação de preparação e de set-up crossover; c) aplicar local branching para resolver os problemas estudados. Para resolver as instâncias propostas, foram utilizados o software comercial ILOG CPLEX 11 e um programa em C++ que foi desenvolvido neste trabalho. Foram utilizados exemplos encontrados na literatura para avaliar as propostas, e bons resultados foram obtidos

Ano

2022-12-06T14:47:11Z

Creators

Renato Andrade de Paiva

Métodos de fronteira imersa em mecânica dos fluidos

No desenvolvimento de códigos paralelos, a biblioteca PETSc se destaca como uma ferramenta prática e útil. Com o uso desta ferramenta, este trabalho apresenta um estudo sobre resolvedores de sistemas lineares aplicados a escoamentos incompressíveis de fluidos em microescala, além de uma análise de seu comportamento em paralelo. Após um estudo dos diversos aspectos dos métodos de fronteira imersa, é apresentado um método de fronteira imersa paralelo de primeira ordem. Na sequência, é apresentada uma proposta de melhoria na precisão do método, baseada na minimização da distância entre a condição de contorno exata e aproximada, no sentido de mínimos quadrados. O desenvolvimento de uma ferramenta paralela eficiente é demonstrado na solução numérica de problemas envolvendo escoamentos incompressíveis de fluidos viscosos com fronteiras imersas

Ano

2022-12-06T14:47:11Z

Creators

Larissa Alves Petri

Solução Numérica de escoamentos viscoelásticos tridimensionais com superfícies livres: fluidos de segunda ordem

Este trabalho apresenta uma técnica de diferenças finitas para resolver a equação constitutiva Fluido de Segunda Ordem para escoamentos tridimensionais com superfície livre. As equações governantes são resolvidas pelo método de diferenças finitas em uma malha deslocada 3D. A superfície livre é modelada por células marcadoras (Marker-and-Cell) e as condições de contorno a superfície livre são empregadas. O método numérico apresentado neste trabalho foi validado pela comparação entre as soluções numéricas obtidas para o escoamento em um tubo com a solução analítica correspondente para Fluidos de Segunda Ordem. Ao fazer refinamento de malha, a convergência do método numérico foi verificada. Resultados numéricos da simulação do problema do inchamento do extrudado para números de Deborah De \'< OU =\' 0:3 são apresentados

Ano

2022-12-06T14:47:11Z

Creators

Igor Feliciano Simplicio Revoredo

Múltiplas visões coordenadas para exploração de mapas de similaridade

Atualmente, diversas áreas de aplicação necessitam de mecanismos mais efetivos para analisar dados provenientes de naturezas distintas. Tipicamente, esses dados são abstratos, não estruturados e possuem uma natureza multidimensional (e.g., coleções de documentos). Dados que não possuem uma natureza multidimensional podem ser representados como tal por meio da aplicação de algoritmos extratores de características (e.g., coleções de imagens). Assim, técnicas de visualização de informação projetadas para interpretar dados multidimensionais podem ser aproveitadas para analisar dados não estruturados. Esta tese empregou técnicas de visualização de informação para construir mapas de similaridade a partir de dados multidimensionais como uma forma de representação desses dados, uma vez que as técnicas para construilos tem evoluído com a expansão dos campos de aplicação. Novas técnicas para coordenação de múltiplas visões foram desenvolvidas para permitir a exploração de conjuntos de dados, a partir de mapas de similaridade gerados por diferentes técnicas de construção de mapas, diferentes parâmetros ou ainda diferentes conjuntos de dados. As técnicas de coordenação desenvolvidas são baseadas em identificador, em distância, em tópicos, na identificação de tópicos em coleções que evoluem no tempo, e em uma técnica que combina o mapeamento de diferentes técnicas de coordenação. Esta tese também apresenta aplicações das técnicas de coordenação desenvolvidas e das ferramentas construídas para análise de coleções de documentos, coleções de imagens e dados volumétricos, empregando coordenações de mapas de similaridade. As técnicas de coordenação desenvolvidas são apoiadas por um modelo de coordenação que estende um modelo previamente proposto na literatura. O modelo estendido permite a configuração de técnicas de coordenação durante a exploração, admitindo diferentes tipos de mapeamentos. Uma característica importante do modelo é permitir o desenvolvimento de mapeamentos dinâmicos para técnicas de coordenação, isto é, mapeamentos que podem mudar o comportamento de acordo com a interação do usuário. Como resultado desta tese, está disponível um arcabouço para visualização coordenada de múltiplos mapas de similaridade, composto por um modelo, um conjunto de técnicas e um conjunto de ferramentas que efetivamente permitem a análise visual de conjuntos de dados multidimensionais

Ano

2022-12-06T14:47:11Z

Creators

Danilo Medeiros Eler

Avaliação de algoritmos de controle de congestionamento como controle de admissão em um modelo de servidores web com diferenciação de serviços

Esta dissertação apresenta a construção de um protótipo de servidor Web distribuído, baseado no modelo de servidor Web com diferenciação de serviços (SWDS) e a implementação e avaliação de algoritmos de seleção, utilizando o conceito de controle de congestionamento para requisições HTTP. Com isso, além de implementar uma plataforma de testes, este trabalho também avalia o comportamento de dois algoritmos de controle de congestionamento. Os dois algoritmos estudados são chamados de Drop Tail e RED (Random Early Detection), no qual são bastante difundidos na literatura científica e aplicados em redes de computadores. Os resultados obtidos demostram que, apesar das particularidades de cada algoritmo, existe uma grande relação entre tempo de resposta e a quantidade de requisições aceitas

Ano

2022-12-06T14:47:11Z

Creators

Ricardo Nogueira de Figueiredo

Balanceamento de linhas de produção com trabalhadores deficientes

Pessoas portadoras de deficiências encontram enormes dificuldades ao tentarem entrar no mercado de trabalho. De fato, sobretudo em países em desenvolvimento, esta parcela significativa da população representa uma fração ínfima dos trabalhadores empregados. Dentre as iniciativas que tentam reverter este quadro, destaca-se a criação de Centros de Trabalhadores Deficientes (CTDs), empresas sem fins lucrativos que empregam pessoas portadoras de deficiências, geralmente em linhas de produção. Um dos fins últimos dos CTDs é expor os trabalhadores a situações encontradas em uma gama diversa de contextos produtivos, de modo que eles possam, eventualmente, vir a compor o quadro de empresas convencionais. A organização e planejamento da operação de CTDs envolve uma série de dificuldades. Questões ligadas à ergonomia do trabalho ou ao gerenciamento de qualidade, por exemplo, adquirem características particulares neste ambiente. Da mesma forma, problemas clássicos de balanceamento de linhas de produção ganham novas particularidades devido, sobretudo, à enorme heterogeneidade existente entre os trabalhadores. Neste contexto, nos interessamos por problemas referentes ao balanceamento da linha de produção com trabalhadores deficientes, onde se busca obter a maior eficiência produtiva dadas as habilidades específicas de cada trabalhador. De maneira mais precisa, o problema de balanceamento de linhas de produção em CTDs, conhecido na literatura como problema de balanceamento e designação de trabalhadores em linhas de produção (ALWABP, na sigla em inglês) consiste em alocar tarefas e trabalhadores a estações de trabalho, de modo a minimizar o gargalo produtivo e levando em consideração que cada tarefa tem um tempo de duração que depende do trabalhador escolhido para sua execução. Isto dá ao problema um caráter de dupla alocação, aumentando seu caráter combinatório e, consequentemente, sua dificuldade de resolução. Nesta dissertação, estudamos uma variedade de técnicas de resolução do ALWABP. Os objetivos deste estudo são, primeiramente, obter métodos diversos para resolução do problema que sejam eficazes tanto em termos do tempo computacional necessário para sua utilização como em termos da qualidade da solução obtida. Dentre as abordagens propostas e testadas encontram-se versões de algoritmos com diferentes complexidades, indo desde heurísticas construtivas e estratégias de busca monotônica em vizinhança até meta-heurísticas como GRASP e Busca Tabu. A variedade de técnicas desenvolvidas permitiu a resolução de um problema ainda mais complexo que o ALWABP, que consiste em programar a linha para diversos períodos produtivos, levando em consideração a rotação de tarefas entre os trabalhadores. Deste modo, os trabalhadores podem ser expostos ao maior número de tarefas possível (atendendo, assim, o fim de treinamento almejado no ambiente dos CTDs). Para resolução do problema de rotação de tarefas, as técnicas desenvolvidas foram utilizadas em um esquema de otimização híbrido que faz uso de um pool de soluções (obtidas pelos métodos heurísticos) que são integradas através de modelos de otimização linear inteira mista. Os resultados obtidos sugerem que as técnicas desenvolvidas são eficientes e flexíveis para o problema ALWABP e que a sua integração permite a obtenção de soluções eficientes para o problema de rotação de tarefas. Deste modo, esta dissertação propõe um esquema completo para o balanceamento de linhas de produção em CTDs

Ano

2022-12-06T14:47:11Z

Creators

Mayron César de Oliveira Moreira

"Realimentação de relevância para recuperação por conteúdo de imagens médicas visando diminuir a descontinuidade semântica"

O objetivo deste projeto de Mestrado foi o estudo, a análise e o desenvolvimento de técnicas de Realimentação de Relevância (RR) para melhorar a respostas de consultas por similaridade que empregam técnicas de recuperação de imagens por conteúdo (do inglês content-based image retrieval - CBIR). A motivação para o desenvolvimento deste projeto veio do iRIS (internet Retrieval of Images System), que é um protótipo de servidor Web para o processamento de consultas por similaridade, em construção no GBdI (Grupo de Bases de Dados e Imagens) do ICMC-USP. O iRIS pode ser integrado a PACS (Picture and Archiving and Communication System) permitindo que estes possam recuperar imagens por semelhança. A principal restrição do uso de sistemas que incorporam CBIR é a descontinuidade semântica (semantic gap), que credita-se principalmente à utilização de características de baixo nível para descrever as imagens. As características mais utilizadas são baseadas em cor, textura e forma, e geralmente não conseguem mapear o que o usuário deseja/esperar recuperar, gerando um descontentamento do usuário em relação ao sistema. Entretanto, se sistema permitir a iteração do usuário na classificação do conjunto resposta e usar estas informações no processo de refinamento, as consultas podem ser re-processadas e os resultados tendem a atender a expectativa do usuário. Esse é o propósito das técnicas de realimentação de relevância. Este projeto desenvolveu duas técnicas de realimentação de relevância (RR): o RF Projection e o RF Multiple Point Projection. O ganho com a aplicação dessas técnicas foi expressivo, alcançando 29% a mais de precisão sobre a consulta original já na primeira iteração e 42% após 5 iterações. Os experimentos realizados com usuários mostraram que em média são executadas 3 iterações para chegar a um resultado satisfatório. Pelos resultados apresentados nos experimentos, podemos afirmar que RR é uma poderosa ferramenta para impulsionar o uso dos sistemas CBIR e aprimorar as consultas por similaridade.

Ano

2022-12-06T14:47:11Z

Creators

Joselene Marques