Repositório RCAAP

Uma abordagem visual para análise comparativa de redes biomoleculares com apoio de diagramas de Venn

Sistemas biológicos podem ser representados por redes que armazenam não apenas informações de conectividade, mas também informações de características de seus nós. No contexto biomolecular, esses nós podem representar proteínas, metabólitos, entre outros tipos de moléculas. Cada molécula possui características anotadas e armazenadas em bases de dados como o Gene Ontology. A comparação visual dessas redes depende de ferramentas que permitam o usuário identificar diferenças e semelhanças entre as anotações feitas sobre as moléculas (atributos) e também sobre as interações conhecidas (conexões). Neste trabalho de mestrado, buscou-se desenvolver técnicas que facilitem a comparação desses atributos sobre as moléculas, tentando manter no processo a visualização das redes em que essas moléculas estão inseridas. Como resultado, obteve-se a ferramenta VisPipeline-MultiNetwork, que permite comparar até seis redes, utilizando operações de conjuntos sobre as redes e sobre seus atributos. Dessa forma, diferentemente da maioria das ferramentas conhecidas para a visualização de redes biológicas, o VisPipeline-MultiNetwork permite a criação de redes cujos atributos são derivados das redes originais por meio de operações de união, intersecção e valores exclusivos. A comparação visual das redes é feita pela visualização do resultado dessas operações de conjuntos sobre as redes, por meio de um método de comparação lado-a-lado. Já a comparação dos atributos armazenados nos nós das redes é feita por meio de diagramas de Venn. Para auxiliar este tipo de comparação, a técnica InteractiVenn foi desenvolvida, em que o usuário pode interagir com um diagrama de Venn efetuando operações de união entre conjuntos. Essas operações de união aplicadas sobre os conjuntos são também aplicadas sobre as respectivas formas no diagrama. Esta característica da técnica a diferencia das outras ferramentas de criação de diagramas de Venn. Integrando essas funcionalidades, o usuário é capaz de comparar redes sob diversas perspectivas. Para exemplificar a utilização do VisPipeline-MultiNetwork, dois casos no contexto biomolecular foram estudados. Adicionalmente, uma ferramenta web para a comparação de listas de cadeias de caracteres por meio de diagramas de Venn foi desenvolvida. Ela também implementa a técnica InteractiVenn e foi denominada InteractiVenn website.

Ano

2022-12-06T14:47:11Z

Creators

Henry Heberle

Medidas em grafos para apoiar a avaliação da qualidade de projeções multidimensionais

Projeções Multidimensionais são úteis para gerar visualizações adequadas para apoiar a análise exploratória de uma grande variedade de dados complexos e de alta dimensionalidade. Tarefas de análise visual de dados têm se beneficiado de projeções para explorar dados textuais, de imagens, de sensores, entre outros. Porém, diferentes técnicas de projeção e diferentes parametrizações de uma mesma técnica produzem resultados distintos para um mesmo conjunto de dados, pois as técnicas adotam estratégias distintas para representar os dados originais em um espaço cuja dimensionalidade permite sua visualização. Atualmente, ainda há poucos recursos para avaliar a qualidade dessas projeções e, em geral, as soluções existentes avaliam propriedades específicas, demandando grande esforço do analista para uma avaliação mais abrangente. Neste trabalho, introduzimos um arcabouço para computar medidas de avaliação de projeções com enfoque em análise de vizinhanças e de agrupamentos. Para elaborar este arcabouço, foi realizado um estudo de percepção para entender melhor como os usuários observam as projeções e foi conduzida uma investigação de representações dos dados capazes de favorecer a identificação de vizinhanças e de agrupamentos. Os padrões identificados no estudo de percepção auxiliaram a validar a representação dos dados, em que foi proposto um modelo de grafo, chamado de Extended Minimum Spanning Tree (EMST), capaz de capturar características condizentes com as observações dos participantes no estudo. O grafo EMST também foi validado por meio de dois estudos comparativos de identificação de vizinhanças e de agrupamentos. Com base neste arcabouço foram propostas cinco medidas de qualidade de projeções multidimensionais, duas delas para avaliar características relacionadas à separação visual das classes, e outras três para avaliar a preservação de propriedades do espaço original, especificamente a separação das classes, as vizinhanças e os agrupamentos. As medidas são ilustradas por meio de sua aplicação a conjuntos de dados artificiais, favorecendo a sua interpretação, bem como a conjuntos de dados reais, evidenciando a sua potencial utilidade em cenários reais. Também é apresentada uma comparação das novas medidas de preservação de vizinhanças com medidas similares descritas na literatura, permitindo identificar diferenças e semelhanças entre elas.

Ano

2022-12-06T14:47:11Z

Creators

Robson Carlos da Motta

Obtenção Automatizada da Expressão do Erro de Truncamento presente na Discretização de Equações Diferenciais Parciais

Esta dissertação apresenta o programa computacional EQMOD, o qual determina a expressão do erro de truncamento presente na discretização de equações diferenciais parciais. Esta expressão é obtida a partir da equação modificada associada à discretização, cujo processo de obtenção envolve extensas manipulações algébricas, dificultando seu cálculo manual. Porém, ele se presta à automatização em um computador munido de uma linguagem de programação simbólica. Para isso, escolheu-se a linguagem de programação do pacote Mathematica. São mostrados vários exemplos que demonstram a funcionalidade e aplicabilidade do sistema desenvolvido.

Ano

2022-12-06T14:47:11Z

Creators

Vanessa Rolnik Artioli

Sonificação para Apoio a Tarefas de Visualização\".

A Visualização Científica (VisC) é uma área da computação gráfica que ajuda cientistas e outros profissionais a capturar o significado dos seus dados. Essa área tem como objetivo a geração de imagens a partir de um conjunto de dados (geralmente obtidos a partir de dispositivos de detecção ou simulações numéricas), as quais são interpretados por usuários que desejam ganhar entendimento do fenômeno que gerou os dados. Algumas vezes esses conjuntos de dados formam imagens complexas, dificultando o seu entendimento, ou possuem muita informação, tornando difícil a sua apresentação no ambiente bidimensional da tela do computador. Nesses casos o som é uma boa alternativa de representação em apoio às técnicas visuais. Sonificação é a área da computação que tratqa do mapeamento sonoro de conjuntos de dados com a intenção de exibir informações. Esta dissertação mostra um estudo sobre o uso de som para o desenvolvimento de um sistema de sonificação para visualização. Esse sistema compreende a implementação de funções de som para visualização volumétrica baseada em superfícies desenvolvidas anteriormente em SSound , no ambiente orientado a objetos de uma biblioteca de visualização de baixo custo e ampla utilização ( o VTK Visualization Toolkit). Os resultados desta dissertação identificam a utilidade do som integrado com a visualização para representar e reforçar dados, além de uma série de recursos para suportar a interpretação de informações complexas.

Ano

2022-12-06T14:47:11Z

Creators

Veridiana Christie Lucas Salvador

Projeto e Implementação de um Sistema de Auxílio a Preparação de Material Didático para uso na World-Wide Web

A presença de computadores e outros recursos tecnológicos no ambiente educacional sempre causou polêmica. Quando as máquinas de calcular entraram nas salas de aula, temia-se que as crianças e, em pouco tempo, os adultos perdessem a capacidade de realizar cálculos às custas de seu próprio raciocínio (preocupação antecipada em um conto de ficção de Isaac Asimov, A Sensação de Poder, publicado pela primeira vez em 1957). O cenário atual nos mostra não o receio, mas a necessidade de oferecer recursos tecnológicos aos estudantes, o mais cedo possível. Neste contexto, focalizamos o sistema Interland (Moreira, Nunes & Pimentel, 1995), que propõe um ambiente de auxílio ao aprendizado no sistema World-Wide Web, com facilidades para exploração de recursos interativos e de multimídia. O objeto deste trabalho é a interface do professor no sistema Interland: o Teaching Assistant ou T.A. O sistema T.A. implementa um conjunto de recursos de autoria com modelos e ferramentas para a produção de documentos relacionados a disciplinas. Os modelos de páginas contribuem para uma menor necessidade de decisões de projeto por parte do professor e menos problemas de autoria, embutindo conceitos importantes na produção de documentos para a World-Wide Web. Essa preocupação também tem em vista evitar problemas para os usuários das páginas em hipertexto (os alunos). Um dos pontos principais do sistema T.A. é permitir a introdução de recursos multimídia (no estágio atual, trechos de vídeo selecionados pelo professor) disponíveis em uma base de dados, eliminando a necessidade de se aprender a manipular outros programas específicos para esse fim. Os protótipos já desenvolvidos oferecem modelos de documentos, e permitem a introdução de interações simples e trechos de vídeo em páginas, de maneira transparente para o usuário.

Ano

2022-12-06T14:47:11Z

Creators

Maria Alice Soares de Castro

Tratamento da Distribuição em Modelos Conceituais de Banco de Dados

indiscutível o grande interesse, tanto dos pesquisadores quanto do mercado de informática, na tecnologia de sistemas de Banco de Dados Distribuído. Entretanto, a distribuição introduz um novo nível de complexidade aos projetos de banco de dados, sua utilização implica em decisões quanto a alocação de dados e programas ao longo da rede de computadores. A maioria dos trabalhos na área busca o desenvolvimento de métodos iterativos para solução otimizada de estratégias de consulta eiou alocação de dados. São poucas as abordagens semânticas do problema. Este trabalho propõe um método prático para alocação de dados, sem considerar qualquer modelo quantitativo; visa-se o enfoque qualitativo da distribuição de dados. Reduz-se a generalização do problema em prol de uma análise pragmática da questão. A base do trabalho são os sistemas de informação da área operacional de uma Empresa de Telecomunicação. O objetivo da proposta é definir o esquema de fragmentação de um banco de dados centralizado através da análise e classificação dos subsistemas de manutenção dos dados, para depois determinar o Esquema de Alocação usando o Modelo Relacional. Por fim, o diaarama conceituai, concebido através cio Modelo Entidade-Relacionamento Estendido, é revisto para incorporar a representação da distribuição aqui desenvolvida.

Ano

2022-12-06T14:47:11Z

Creators

Marilia Guimarães Pinheiro

O Sistema Tutor de um Ambiente Inteligente para Treinamento e Ensino

Este trabalho propõe um ambiente denominado SIATE (Sistema Inteligente de Apoio ao Treinamento e Ensino), que integra características de ambientes de Prática/Treinamento, Hipennídia, Sistemas Tutores e Sistemas Híbridos de Conhecimento, é voltado para o ensino e tem como característica marcante a liberdade, por parte do estudante, de explorar um domínio qualquer, podendo recorrer, quando necessário, ao auxílio de um Sistema Tutor e de um Sistema Híbrido de Conhecimento com conhecimento especialista nesse domínio. São enfatizados aqui o projeto e o desenvolvimento de um Sistema Tutor que oferece apoio pedagógico ao ambiente, bem como o desenvolvimento dos recursos hipermídia desse ambiente.

Ano

2022-12-06T14:47:11Z

Creators

Mirla Eliane Pereira Freire

Desenvolvimento de um Modelador de Moldes Tridimensional para um Simulador de Escoamento de Fluidos\".

Este trabalho envolveu estudos nas áreas de Modelagem Geométrica, Técnicas de Modelagem e Interação Usuário-Computador e descreve a implementação de um Modelador de Moldes Tridimensional. Esse sistema tem o objetivo de prover o Simulador de Escoamento de Fluidos FREEFLOW 3D de uma ferramenta na qual o usuário possa construir o molde 3D onde um fluido será injetado, de uma forma fácil e intuitiva. O Modelador utiliza como técnicas de modelagem Varreduras e Curvas e Superfícies Livres NURBS. Para a interação com o usuário utiliza técnicas bidimensionais que auxiliam à defmição das faces geradoras necessárias aos algoritmos de modelagem. Já os moldes tridimensionais criados são representados internamente pela sua fronteira (Boundary Representation), usando uma estrutura do tipo semi-aresta (halfedge).

Ano

2022-12-06T14:47:11Z

Creators

Rogerio Dei Santi

Uso de Redes Neurais para Correção Gramatical do Português: Um Estudo de Caso

A construção de ferramentas para a correção automática de textos tem ganhado destaque, seguindo a evolução e eficiência dos processadores de textos ao qual elas são incorporadas. E, junto às técnicas tradicionais simbolistas de implementação de tais ferramentas, através do uso de regras de produção, surgem aplicações com técnicas até então não usuais na. área de lingüística computacional, como o uso de Redes Neurais Artificiais. O trabalho proposto tem por objetivo fazer um estudo comparativo do uso das técnicas conexionista e simbolista na revisão automática de erros gramaticais da língua portuguesa. Usando como estudo de caso as regras gramaticais da crase, tomamos como exemplo de modelo tradicional de implementação o revisor gramatical ReGra, e de outro lado, implementamos dois modelos de redes neurais (um modelo backpropagation e um modelo Elman), para detectar erros com relação ao uso da crase, tanto em casos de presença incorreta, quanto de ausência. A meta deste estudo não é apontar qual método é o mais eficiente em termos gerais, mesmo porque acreditamos que isto não seja possível. Queremos, sim, observar o desempenho de ambos os métodos quanto ao problema determinado, visando assim uma maior integração entre eles, aproveitando suas melhores potencialidades.

Ano

2022-12-06T14:47:11Z

Creators

Andreia Gentil Bonfante

Sistema híbrido: raciocínio baseado em casos e redes neurais

Os processos de recuperação e aprendizado de casos, que exercem um papel fundamental, em sistemas de Raciocínio Baseado em Casos, não são fáceis de serem desenvolvidos. Estes dois processos são bastante dependentes. Os casos devem ser recuperados rapidamente da memória para o sistema de Raciocínio Baseado em Casos ser eficiente. Isto implica em estruturas mais elaboradas para armazenálos, organizá-los e recuperá-los. Quando um conhecimento novo é incorporado ao sistema (aprendizado), a reorganização dos casos na memória torna-se muito complexa devido justamente à estas estruturas. O principal objetivo deste trabalho é a integração de Raciocínio Baseado em Casos e Redes Neurais. Neste trabalho, uma Rede Neural, modelo ART1, é utilizada para auxiliar na recuperação e aprendizado de casos em um sistema de Raciocínio Baseado em Casos.

Ano

2022-12-06T14:47:11Z

Creators

Claudia Regina Milaré

Uso de Métodos Bayesianos na Análise de Dados de Confiabilidade de Software Considerando Tempos entre Falhas

Nesta dissertação de mestrado, apresentamos análises Clássica e Bayesiana para os principais modelos de Estratégia tipo I, estratégia de modelos de confiabilidade de software que modelam os tempos entre falhas do software. Na análise Clássica, estimadores pontuais e intervalos de confiança são encontrados usando métodos assintóticos. Na análise Bayesiana, considerando densidades a priori informativas para os parâmetros dos modelos, determinamos os resumos a posteriori, utilizando os métodos de simulação Gibbs Sampling e Metrópolis Hastings. Em particular, consideramos diferentes densidades a priori para os parâmetros do modelo de Jelinski e Moranda (1972) (um dos primeiros modelos de confiabilidade de software desenvolvido) e verificamos a consequência de uma reparametrização para esse modelo. Também, apresentamos a técnica das distribuições preditivas condicionais ordenadas (CPO) para selecionar o melhor modelo dentre os modelos analisados. Finalizamos, ilustrando os métodos propostos através de um exemplo prático

Ano

2022-12-06T14:47:11Z

Creators

Daniela Brassolatti

Inferência Bayesiana para o Modelo de Jelinski-Moranda via Parâmetros Ortogonais

Apresentamos neste trabalho, um estudo do modelo de confiabilidade de software de Jelinski e Moranda (1972). Enfocamos, a importância da análise Bayesianapara a correção da instabilidade do estimador de máxima verossimilhança de N (número de erros do software), e a ortogonalização de Cox e Reid (1987) para a realização de inferência Bayesiana sobre a taxa de falhas A. Também, caractenzamos a existência da densidade a posteriori de { quando admitimos densidades a priori não-informativas e impróprias aos parâmetros do modelo. Destacamos o comportamento dos métodos de aproximação de Monte Carlo em cadeias de Markov, para a obtenção da distribuição a posteriori de N quando esta é imprópria.

Ano

2022-12-06T14:47:11Z

Creators

Daniele da Silva Baratela

Problemas de Dimensionamento de Lotes com Aplicações Numa Fundição Automatizada

Neste trabalho estudam-se problemas de dimensionamento de lotes com aplicações específicas em uma fundição automatizada. Quando várias ligas são consideradas na programação, o problema é modelado com um problema de programação linear inteira mista; caso contrário como um problema de programação linear. Algumas hipóteses são assumidas sobre o gargalo e heurísticas são desenvolvidas. Mostra-se também como a fundição pode ser integrada a um sistema de múltiplos estágios, tais como usinagem e montagem. Experiências computacionais sobre o desempenho dos métodos são relatadas.

Ano

2022-12-06T14:47:11Z

Creators

Elisangela dos Santos Meza

Projeto Evolucionário de Redes Neurais Artificiais para Avaliação de Crédito Financeiro

O risco de crédito a pessoas físicas tem sido avaliado empiricamente ou por sistemas de credit score. No entanto, com o crescimento do mercado de crédito ao varejo, o assunto passou a merecer maior preocupação em razão da elevação das taxas de inadimplência, que vem causando enormes prejuízos aos doadores de recursos. Redes Neurais Artificiais (RNA) podem ser treinadas utilizando grandes quantidades de exemplos significativos. Utilizando esta técnica, as avaliações podem ser modeladas através de exemplos encontrados nos históricos dos clientes das aplicações de crédito. Contudo, a topologia e os parâmetros de aprendizado das RNA precisam ser apropriadamente estabelecidos para que a rede funcione eficientemente. Para resolver este tipo de problema, recentemente vêm sendo utilizados Algoritmos Genéticos (AG), algoritmos baseados em mecanismos genéticos e de seleção natural, que podem ser utilizados para encontrar as arquiteturas mais eficientes. O objetivo deste projeto é investigar como o projeto de RNA pode se beneficiar de AG para a determinação de sua arquitetura e o comportamento de RNA como técnica para análise de risco crédito financeiro. Para avaliar os modelos desenvolvidos, foram utilizados dois conjuntos de dados diferentes, compostos de informações sobre aplicações reais de crédito. O primeiro deles é constituído por dados de aplicações de cartão de crédito, cujo objetivo do modelo é \"imitar\" a avaliação humana. O segundo é constituído por dados de clientes de crédito bancário e seus históricos de pagamento com o objetivo de prever o comportamento de futuros clientes.

Ano

2022-12-06T14:47:11Z

Creators

Elson Felix Mendes Filho

Features transfer learning between domains for image and video recognition tasks

Feature transfer learning aims to reuse knowledge previously acquired in some source dataset to apply it in another target data and/or task. A requirement for the transfer of knowledge is the quality of feature spaces obtained, in which deep learning methods are widely applied since those provide discriminative and general descriptors. In this context, the main questions include: what to transfer align the data distribution from source and target, and adjusting the parameters to increase the models generalization capability; how to transfer investigating methods that work on the features spaces or also on the learned models; and when to transfer studying which datasets are mode adequate for transferring, considering discrepancies between source and target data, such as they different acquisition settings, clutter and illumination variation, among others. This thesis advocates that the focus should be in transferring feature spaces, learned by convolutional neural networks, in particular investigating the descriptive potential of inner and initial layers of such deep convolutional networks, and the approximation of feature spaces before aligning the data distribution in order to allow for better solutions, as well as the use of both labeled and unlabeled for feature learning. Besides the transfer learning methods, such as fine-tuning and manifold alignment, with use of classical evaluation metrics for recognition performance, a generalization metric between domains is also proposed to evaluate transfer learning. This thesis contributes with: an analysis of multiple descriptors contained in supervised deep networks; a new architecture with a loss function for semi-supervised deep networks (Weighted Label Loss), in which all available data, labeled or unlabeled, are incorporated to provide learning; and a new generalization metric (Cross-domain Feature Space Generalization Measure) that can be applied to any model and evaluation system

Ano

2022-12-06T14:47:11Z

Creators

Fernando Pereira dos Santos

Binary quantification in non-stationary scenarios

Quantification is a Machine Learning task similar to classification in the sense that it learns from a training set with labeled data. However, quantification is not interested in predicting the class of each observation, but rather measure the representativeness of each class in the test set. This subtle difference between classification and quantification requires specific algorithms, performance measures, and experimental designs. Moreover, most of the existing quantification algorithms were developed for well-controlled scenarios that rely on the assumption that the only change from training to test data is in the prior probability of the classes. This thesis focuses on providing improvements in quantification algorithms as well as the experimental design, including more realistic assumptions. Specifically, the main contributions of this thesis are the following: (i) the first algorithm to quantify non-stationary data under the concept drift presence; (ii) an unsupervised drift detector that are insensible to class imbalance explicitly; (iii) a mixture model framework for quantification with a deep experimental study, redefining the best parametrization of this sort of method; (iv) we show that the batch size, an ignored question in the literature, changes the ranking of quantification algorithms and thus we proposed a metalearning framework to select the best quantifier dynamically; (v) we describe how existing quantifiers are affected under score quality variability and, as response of it, we proposed a new algorithm that accurately quantifies while allowing changes in the quality of the scores, and; (vi) we show the applicability of our proposals in real-world problem and the efforts to contribute with development of new mechanism for trapping mosquitoes.

Ano

2022-12-06T14:47:11Z

Creators

André Gustavo Maletzke

Machine learning in complex networks: modeling, analysis, and applications

Machine learning is evidenced as a research area with the main purpose of developing computational methods that are capable of learning with their previously acquired experiences. Although a large amount of machine learning techniques has been proposed and successfully applied in real systems, there are still many challenging issues, which need be addressed. In the last years, an increasing interest in techniques based on complex networks (large-scale graphs with nontrivial connection patterns) has been verified. This emergence is explained by the inherent advantages provided by the complex network representation, which is able to capture the spatial, topological and functional relations of the data. In this work, we investigate the new features and possible advantages offered by complex networks in the machine learning domain. In fact, we do show that the network-based approach really brings interesting features for supervised, semisupervised, and unsupervised learning. Specifically, we reformulate a previously proposed particle competition technique for both unsupervised and semisupervised learning using a stochastic nonlinear dynamical system. Moreover, an analytical analysis is supplied, which enables one to predict the behavior of the proposed technique. In addition to that, data reliability issues are explored in semisupervised learning. Such matter has practical importance and is found to be of little investigation in the literature. With the goal of validating these techniques for solving real problems, simulations on broadly accepted databases are conducted. Still in this work, we propose a hybrid supervised classification technique that combines both low and high orders of learning. The low level term can be implemented by any classification technique, while the high level term is realized by the extraction of features of the underlying network constructed from the input data. Thus, the former classifies the test instances by their physical features, while the latter measures the compliance of the test instances with the pattern formation of the data. Our study shows that the proposed technique not only can realize classification according to the semantic meaning of the data, but also is able to improve the performance of traditional classification techniques. Finally, it is expected that this study will contribute, in a relevant manner, to the machine learning area

Ano

2022-12-06T14:47:11Z

Creators

Thiago Christiano Silva

Métodos de programação quadrática convexa esparsa e suas aplicações em projeções em poliedros

O problema de minimização com restrições lineares e importante, não apenas pelo problema em si, que surge em várias áreas, mas também por ser utilizado como subproblema para resolver problemas mais gerais de programação não-linear. GENLIN e um método eficiente para minimização com restrições lineares para problemas de pequeno e médio porte. Para que seja possível a implementação de um método similar para grande porte, é necessário ter um método eficiente, também para grande porte, para projeção de pontos no conjunto de restrições lineares. O problema de projeção em um conjunto de restrições lineares pode ser escrito como um problema de programação quadrática convexa. Neste trabalho, estudamos e implementamos métodos esparsos para resolução de problemas de programação quadrática convexa apenas com restrições de caixa, em particular o clássico método Moré-Toraldo e o \"método\" NQC. O método Moré-Toraldo usa o método dos Gradientes Conjugados para explorar a face da região factível definida pela iteração atual, e o método do Gradiente Projetado para mudar de face. O \"método\" NQC usa o método do Gradiente Espectral Projetado para definir em que face trabalhar, e o método de Newton para calcular o minimizador da quadrática reduzida a esta face. Utilizamos os métodos esparsos Moré-Toraldo e NQC para resolver o problema de projeção de GENLIN e comparamos seus desempenhos

Ano

2022-12-06T14:47:11Z

Creators

Jeinny Maria Peralta Polo

Uma abordagem de apoio a boas práticas para desenvolvimento de aplicações Web acessíveis

A interação com aplicações Web está se tornando cada vez mais presente no dia-a-dia das pessoas, sendo útil para a disponibilização de recursos que permitem a realização de serviços, estudos ou entretenimento. Porém muitos dos recursos disponibilizados apresentam barreiras em relação à acessibilidade, impedindo que usuários finais, com algum tipo de deficiência, possam utilizá-los de forma eficiente. Como solução para esse problema, têm sido propostas diretrizes para o desenvolvimento de aplicações Web acessíveis. Entretanto, apesar da existência dessas diretrizes, o cenário atual ainda mostra que há dificuldades em relação ao desenvolvimento considerando requisitos de acessibilidade. Neste sentido, esta tese está calcada na criação de uma abordagem que permita o apoio efetivo a boas práticas para desenvolvimento Web, a partir da aproximação de tais diretrizes ao ambiente das equipes de desenvolvimento. Para tanto, são definidas atividades separadas em 3 eixos de preocupações: Treinamento em Acessibilidade, Gerência de Decisões e Desenvolvimento e Ferramental. Para validação da concepção inicial da proposta desta tese, estudos de caso são detalhados, demonstrando como o desenvolvimento Web pode ser beneficiado com melhor apoio ferramental, que incluem o uso de técnicas de modelagem e de padrões para geração de código acessível. São ainda verificados os benefícios da colaboração de experiências e treinamento da equipe de desenvolvimento, para tanto foi desenvolvida a ferramenta AccessibilityUtil. Posteriormente é descrita a abordagem e validada em um experimento controlado em que existiram grupos de participantes utilizando a abordagem e outros que não fizeram uso da mesma. Com isso, observou-se que, com a utilização da abordagem, houve melhor apoio a boas práticas de desenvolvimento em relação à aplicação de requisitos de acessibilidade, o que ocasiona em melhores resultados de qualidade para as aplicações Web.

Ano

2022-12-06T14:47:11Z

Creators

Thiago Jabur Bittar

VerbNet.Br: construção semiautomática de um léxico verbal online e independente de domínio para o português do Brasil

A criação de recursos linguístico-computacionais de base, como é o caso dos léxicos computacionais, é um dos focos da área de Processamento de Línguas Naturais (PLN). Porém, a maioria dos recursos léxicos computacionais existentes é específica da língua inglesa. Dentre os recursos já desenvolvidos para a língua inglesa, tem-se a VerbNet, que é um léxico com informações semânticas e sintáticas dos verbos do inglês, independente de domínio, construído com base nas classes verbais de Levin, além de possuir mapeamentos para a WordNet de Princeton (WordNet). Considerando que há poucos estudos computacionais sobre as classes de Levin, que é a base da VerbNet, para línguas diferentes do inglês, e dada a carência de um léxico para o português nos moldes da VerbNet do inglês, este trabalho teve como objetivo a criação de um recurso léxico para o português do Brasil (chamado VerbNet.Br), semelhante à VerbNet. A construção manual destes recursos geralmente é inviável devido ao tempo gasto e aos erros inseridos pelo autor humano. Portanto, há um grande esforço na área para a criação destes recursos apoiada por técnicas computacionais. Uma técnica reconhecida e bastante usada é o uso de aprendizado de máquina em córpus para extrair informação linguística. A outra é o uso de recursos já existentes para outras línguas, em geral o inglês, visando à construção de um novo recurso alinhado, aproveitando-se de atributos multilíngues/cross-linguísticos (cross-linguistic) (como é o caso da classificação verbal de Levin). O método proposto neste mestrado para a construção da VerbNet.Br é genérico, porque pode ser utilizado para a construção de recursos semelhantes para outras línguas, além do português do Brasil. Além disso, futuramente, será possível estender este recurso via criação de subclasses de conceitos. O método para criação da VerbNet.Br é fundamentado em quatro etapas: três automáticas e uma manual. Porém, também foram realizados experimentos sem o uso da etapa manual, constatando-se, com isso, que ela pode ser descartada sem afetar a precisão e abrangência dos resultados. A avaliação do recurso criado foi realizada de forma intrínseca qualitativa e quantitativa. A avaliação qualitativa consistiu: (a) da análise manual de algumas classes da VerbNet, criando um gold standard para o português do Brasil; (b) da comparação do gold standard criado com os resultados da VerbNet.Br, obtendo resultados promissores, por volta de 60% de f-measure; e (c) da comparação dos resultados da VerbNet.Br com resultados de agrupamento de verbos, concluindo que ambos os métodos apresentam resultados similares. A avaliação quantitativa considerou a taxa de aceitação dos membros das classes da VerbNet.Br, apresentando resultados na faixa de 90% de aceitação dos membros em cada classe. Uma das contribuições deste mestrado é a primeira versão da VerbNet.Br, que precisa de validação linguística, mas que já contém informação para ser utilizada em tarefas de PLN, com precisão e abrangência de 44% e 92,89%, respectivamente

Ano

2022-12-06T14:47:11Z

Creators

Carolina Evaristo Scarton