Repositório RCAAP

Solving University entrance assessment using information retrieval

Answering questions posed in natural language is a key task in Artificial Intelligence. However, producing a successful Question Answering (QA) system is challenging, since it requires text understanding, information retrieval, information extraction and text production. This task is made even harder by the difficulties in collecting reliable datasets and in evaluating techniques, two pivotal points for machine learning approaches. This has led many researchers to focus on Multiple-Choice Question Answering (MCQA), a special case of QA where systems must select the correct answers from a small set of alternatives. One particularly interesting type of MCQA is solving Standardized Tests, such as Foreign Language Proficiency exams, Elementary School Science exams and University Entrance exams. These exams provide easy-to-evaluate challenging multiple-choice questions of varying difficulties about large, but limited, domains. The Exame Nacional do Ensino Médio (ENEM) is a High School level exam taken every year by students all over Brazil. It is widely used by Brazilian universities as an entrance exam and is the world\'s second biggest university entrance examination in number of registered candidates. This exam consists in writing an essay and solving a multiple-choice test comprising questions on four major topics: Humanities, Language, Science and Mathematics. Questions inside each major topic are not segmented by standard scholar disciplines (e.g. Geography, Biology, etc.) and often require interdisciplinary reasoning. Moreover, the previous editions of the exam and their solutions are freely available online, making it a suitable benchmark for MCQA. In this work we automate solving the ENEM focusing, for simplicity, on purely textual questions that do not require mathematical thinking. We formulate the problem of answering multiple-choice questions as finding the candidate-answer most similar to the statement. We investigate two approaches for measuring textual similarity of candidate-answer and statement. The first approach addresses this as a Text Information Retrieval (IR) problem, that is, as a problem of finding in a database the most relevant document to a query. Our queries are made of statement plus candidate-answer and we use three different corpora as database: the first comprises plain-text articles extracted from a dump of the Wikipedia in Portuguese language; the second contains only the text given in the question\'s header and the third is composed by pairs of question and correct answer extracted from ENEM assessments. The second approach is based on Word Embedding (WE), a method to learn vectorial representation of words in a way such that semantically similar words have close vectors. WE is used in two manners: to augment IR\'s queries by adding related words to those on the query according to the WE model, and to create vectorial representations for statement and candidate-answers. Using these vectorial representations we answer questions either directly, by selecting the candidate-answer that maximizes the cosine similarity to the statement, or indirectly, by extracting features from the representations and then feeding them into a classifier that decides which alternative is the answer. Along with the two mentioned approaches we investigate how to enhance them using WordNet, a structured lexical database where words are connected according to some relations like synonymy and hypernymy. Finally, we combine different configurations of the two approaches and their WordNet variations by creating an ensemble of algorithms found by a greedy search. This ensemble chooses an answer by the majority voting of its components. The first approach achieved an average of 24% accuracy using the headers, 25% using the pairs database and 26.9% using Wikipedia. The second approach achieved 26.6% using WE indirectly and 28% directly. The ensemble achieved 29.3% accuracy. These results, slightly above random guessing (20%), suggest that these techniques can capture some of the necessary skills to solve standardized tests. However, more sophisticated techniques that perform text understanding and common sense reasoning might be required to achieve human-level performance.

Ano

2018

Creators

Igor Cataneo Silveira

Alocação de recursos em uma arquitetura óptica Cloud-Fog RAN para o suporte da internet 5G

A futura Internet 5G vem demandando novos esforços dos operadores de telecomunicações por conta do grande tráfego esperado em tal rede. Arquiteturas de redes de acesso a rádio (Radio Access Networks (RAN)) baseadas em computação em nuvem (Cloud Radio Access Networks (CRAN)) já vêm sendo utilizadas para lidar com a grande cobertura demandada por essas redes ao mesmo tempo em que busca-se uma operação energeticamente eficiente, centralizando o processamento de sinais de banda-base em uma nuvem. Entretanto, a centralização do processamento de banda-base na arquitetura CRAN pode levar a sobrecargas em seus recursos de processamento, chamados de Unidades de Banda-Base (BaseBand Units (BBUs)), e na rede de transporte óptica, chamada de fronthaul, responsável por interconectar as antenas remotas da rede (Remote Radio Heads (RRHs)) à nuvem, degradando dessa forma as rígidas restrições de latência esperadas em redes 5G e levando até mesmo ao bloqueio de requisições por falta de recursos computacionais ou de rede. Esta Tese introduz uma nova arquitetura de rede chamada de Cloud-Fog RAN (CF-RAN) que busca estender as capacidades da CRAN por meio dos paradigmas de computação em névoa, para prover processamento local de banda-base, e de Virtualização de Funções de Rede (Network Functions Virtualization (NFV)), para realizar a ativação e desativação dinâmica das funções de processamento locais. Formulações baseadas em Programação Linear Inteira (Integer Linear Programming (ILP)) e heurísticas baseadas em teoria dos grafos e relaxações lineares são propostas para realizar a alocação dos recursos de rede e processamento da CF-RAN. A eficácia dos algoritmos propostos foram verificados por meio de execuções das formulações ILP e de simulações. Os resultados mostraram que a arquitetura CF-RAN é capaz de aumentar a cobertura de atendimento de uma rede 5G em comparação à CRAN, além de prover eficiência energética, baixa latência e otimizar a utilização tanto dos recursos de rede como de processamento.

Ano

2019

Creators

Rodrigo Izidoro Tinini

Detecção de voz cantada em sinais de áudio polifônicos

Detecção de voz cantada em sinais de áudio polifônicos é o problema que trata de determinar quais trechos de um sinal musical com diversas fontes sonoras contêm voz cantada. Este é um tópico de pesquisa ativo na área de Recuperação de Informação Musical (MIR) e possui muitas aplicações, incluindo reconhecimento automático de cantor, alinhamento de letra e música, separação de voz cantada e extração de melodias. Neste projeto, o problema de detecção de voz cantada é abordado através do levantamento das técnicas utilizadas na literatura, com o desenvolvimento de um sistema capaz de classificar os segmentos de sinais de áudio em duas classes (os trechos que contêm e os trechos que não contêm voz cantada) e também pela comparação dos resultados de detecção de voz cantada utilizando ferramentas baseadas em aprendizado profundo. Os objetivos gerais são: apresentar a revisão da literatura e construir experimentos a fim de analisar os métodos de classificação e descritores de áudio. Os objetivos específicos são: avaliar as restrições presentes na classificação dos trechos cantados, usar descritores de áudio baseados em aprendizado profundo ainda não aplicados na tarefa e comparar o uso de métodos tradicionais de aprendizado de máquina com as possibilidades apresentadas pelas representações aprendidas automaticamente. A partir de uma série de experimentos, enfrentamos a complexidade do tema e as limitações apresentadas por descritores comumente usados. Ao usar um descritor baseado em aprendizado profundo, observa-se espaço para melhorias na abordagem clássica de aprendizado de máquinas baseada na seleção e combinação de representações tradicionais dos dados musicais na entrada dos algoritmos de aprendizado.

Ano

2020

Creators

Shayenne Luz Moura Corrêa

Analyzing natural language inference from a rigorous point of view

Natural language inference (NLI) is the task of determining the entailment relationship between a pair of sentences. We are interested in the problem of verifying whether the deep learning models current used in NLI satisfy some logical properties. In this thesis, we focus on two properties: i) the capacity of solving deduction problems based on some specific logical forms (e.g., Boolean coordination, quantifiers, definite description, and counting operators); and ii) the property of having the same conclusion from equivalent premises. For each one of these properties we develop a new evaluation procedure. For i) we offer a new synthetic dataset that can be used both for inference perception and inference generation; and for ii) we propose a null hypothesis test constructed to represent the different manners that the inclusion of sentences with the same meaning can affect the training of a machine learning model. Our results show that although deep learning models have an outstanding performance on the majority of NLI datasets, they still lack some important inference skills such as dealing with counting operators, predicting which word can form an entailment given an specific context, and presenting the same deductions for two different text inputs with the same meaning. This indicates that despite the high prediction power of these new models, they do present some inference biases that cannot be easily removed. Future investigations are needed in order to understand the scope of this bias. It is possible that by increasing the training sample size in the fine-tuning phase, this bias can be reduced.

Ano

2020

Creators

Felipe de Souza Salvatore

Minimização de funções decomponíveis em curvas em U definidas sobre cadeias de posets -- algoritmos e aplicações

O problema de seleção de características, no contexto de Reconhecimento de Padrões, consiste na escolha de um subconjunto X de um conjunto S de características, de tal forma que X seja \"ótimo\" dentro de algum critério. Supondo a escolha de uma função custo c apropriada, o problema de seleção de características é reduzido a um problema de busca que utiliza c para avaliar os subconjuntos de S e assim detectar um subconjunto de características ótimo. Todavia, o problema de seleção de características é NP-difícil. Na literatura existem diversos algoritmos e heurísticas propostos para abordar este problema; porém, quase nenhuma dessas técnicas explora o fato que existem funções custo cujos valores são estimados a partir de uma amostra e que descrevem uma \"curva em U\" nas cadeias do reticulado Booleano (P(S),<=), um fenômeno bem conhecido em Reconhecimento de Padrões: conforme aumenta-se o número de características consideradas, há uma queda no custo do subconjunto avaliado, até o ponto em que a limitação no número de amostras faz com que seguir adicionando características passe a aumentar o custo, devido ao aumento no erro de estimação. Em 2010, Ris e colegas propuseram um novo algoritmo para resolver esse caso particular do problema de seleção de características, que aproveita o fato de que o espaço de busca pode ser organizado como um reticulado Booleano, assim como a estrutura de curvas em U das cadeias do reticulado, para encontrar um subconjunto ótimo. Neste trabalho estudamos a estrutura do problema de minimização de funções custo cujas cadeias são decomponíveis em curvas em U (problema U-curve), provando que o mesmo é NP-difícil. Mostramos que o algoritmo de Ris e colegas possui um erro que o torna de fato sub-ótimo, e propusemos uma versão corrigida e melhorada do mesmo, o algoritmo U-Curve-Search (UCS). Apresentamos também duas variações do algoritmo UCS que controlam o espaço de busca de forma mais sistemática. Introduzimos dois novos algoritmos branch-and-bound para abordar o problema, chamados U-Curve-Branch-and-Bound (UBB) e Poset-Forest-Search (PFS). Para todos os algoritmos apresentados nesta tese, fornecemos análise de complexidade de tempo e, para alguns deles, também prova de corretude. Implementamos todos os algoritmos apresentados utilizando o arcabouço featsel, também desenvolvido neste trabalho; realizamos experimentos ótimos e sub-ótimos com instâncias de dados reais e simulados e analisamos os resultados obtidos. Por fim, propusemos um relaxamento do problema U-curve que modela alguns tipos de projeto de classificadores; também provamos que os algoritmos UCS, UBB e PFS resolvem esta versão generalizada do problema.

Ano

2012

Creators

Marcelo da Silva Reis

Atualização dinâmica de modelo de regressão logística binária para detecção de fraudes em transações eletrônicas com cartão de crédito

Com o avanço tecnológico e econômico, que facilitaram o processo de comunicação e aumento do poder de compra, transações com cartão de crédito tornaram-se o principal meio de pagamento no varejo nacional e internacional (Bolton e Hand , 2002). Neste aspecto, o aumento do número de transações com cartão de crédito é crucial para a geração de mais oportunidades para fraudadores produzirem novas formas de fraudes, o que resulta em grandes perdas para o sistema financeiro (Chan et al. , 1999). Os índices de fraudes têm mostrado que transações no comércio eletrônico (e-commerce) são mais arriscadas do que transações presencias em terminais, pois aquelas não fazem uso de processos seguros e eficientes de autenticação do portador do cartão, como utilização de senha eletrônica. Como os fraudadores se adaptam rapidamente às medidas de prevenção, os modelos estatísticos para detecção de fraudes precisam ser adaptáveis e flexíveis para evoluir ao longo do tempo de maneira dinâmica. Raftery et al. (2010) desenvolveram um método chamado Dynamic Model Averaging (DMA), ou Ponderação Dinâmica de Modelos, que implementa um processo de atualização contínuo ao longo do tempo. Nesta dissertação, desenvolvemos modelos DMA no espaço de transações eletrônicas oriundas do comércio eletrônico que incorporem as tendências e características de fraudes em cada período de análise. Também desenvolvemos modelos de regressão logística clássica com o objetivo de comparar as performances no processo de detecção de fraude. Os dados utilizados para tal são provenientes de uma empresa de meios de pagamentos eletrônico. O experimento desenvolvido mostra que os modelos DMA apresentaram resultados melhores que os modelos de regressão logística clássica quando analisamos a medida F e a área sob a curva ROC (AUC). A medida F para o modelo DMA ficou em 58% ao passo que o modelo de regressão logística clássica ficou em 29%. Já para a AUC, o modelo DMA alcançou 93% e o modelo de regressão logística clássica 84%. Considerando os resultados encontrados para os modelos DMA, podemos concluir que sua característica de atualização ao longo do tempo se mostra um grande diferencial em dados como os de fraude, que sofrem mudanças de comportamento a todo momento. Deste modo, sua aplicação se mostra adequada no processo de detecção de transações fraudulentas no ambiente de comércio eletrônico.

Melhorando o desempenho de agentes BDI Jason através de filtros de percepção

Um dos problemas do paradigma BDI quando se integram agentes a ambientes virtuais ou simuladores é a ausência de controle sobre as suas percepções. Não havendo alguma forma de percepção direcionada ao objetivo, o agente pode ser inundado por informações irrelevantes causando um aumento injustificado do tempo de processamento. Com o objetivo de fornecer um maior controle sobre as percepções do agente e reduzir o seu tempo de resposta, este trabalho apresenta um mecanismo de filtragem das percepções para o interpretador Jason que visa eliminar aquelas percepções que podem ser ignoradas. Para tal, foram propostos e implementados alguns tipos de filtros pré-definidos, que foram aplicados a três cenários diferentes. Através de validações estatísticas apropriadas, mostrou-se que a aplicação de filtros de percepção pode reduzir em até 80% o tempo de processamento de um agente, sem afetar significativamente o seu desempenho medido em termos de sua função de utilidade.

Ano

2015

Creators

Márcio Fernando Stabile Junior

SelfMakeup: um sistema de realidade aumentada para autoaplicação de maquiagem virtual

Durante séculos, cosméticos têm sido utilizados nas mais diversas sociedades. Entretanto, quando se trata de maquiagem facial, o processo de escolha de um produto ainda é um desafio, pois é um trabalho manual que demanda tempo, além de consumir a maquiagem em si e outros materiais para aplicação e limpeza. Esse processo manual também dificulta a experimentação de vários produtos diferentes devido à necessidade de limpeza da pele para retirada de um produto aplicado anteriormente. Assim, um sistema de simulação de maquiagem utilizando realidade aumentada pode facilitar esse processo, permitindo a experimentação com a combinação de produtos e a comparação dos resultados, além de permitir experimentar os produtos virtualmente, pela internet por exemplo. Trabalhos existentes sobre esse tema permitem ao usuário aplicar a maquiagem sobre uma foto, ou mesmo um vídeo, do próprio usuário. A interação é feita por meio de mouse ou toque de um dedo sobre um monitor sensível a toques como se o usuário aplicasse maquiagem em uma terceira pessoa. Nesta dissertação propomos o desenvolvimento do SelfMakeup, um sistema de realidade aumentada que permite a autoaplicação de maquiagem virtual por meio de toques feitos diretamente na face ao invés de toques no monitor. A nossa hipótese é que essa forma de interação seja mais natural e forneça ao usuário uma melhor experiência ao testar produtos virtuais de maquiagem. O primeiro passo para viabilizar o SelfMakeup foi o desenvolvimento de um método para estimar a po- sição de toques na face utilizando uma câmera RGBD. Realizamos testes para avaliar o desempenho desse método e verificamos que a sua acurácia e precisão se mostraram adequadas para o propósito desta pesquisa. Em seguida, projetamos a interface gráfica do sistema para aplicação de maquiagem virtual. A interface per- mite efeitos de destaque e sombreamento que simulam os efeitos provocados pela aplicação de produtos reais de maquiagem. Resultados de um teste piloto do nosso protótipo com 32 usuários sugerem que o SelfMa- keup, por utilizar toques diretamente na face, oferece uma melhor experiência ao usuário na experimentação de produtos virtuais de maquiagem.

Ano

2017

Creators

Aline de Fátima Soares Borges

A Mixed-Integer Linear Programming reformulation approach to Maximum A Posteriori inference in Sum-Product Networks

Sum-Product Network (SPN) is a relatively new class of probabilistic graphical models. They differ from other probabilistic graphical models by allowing explicit representation of context-sensitive independence and marginal inference computation in linear time. Bayesian Networks and Markov Networks, for example, require #P-hard effort for performing marginal inference. However, it is still NP-hard to find the most probable configuration for a set of variables in an SPN, and there is currently a shortage of efficient techniques to solve the problem. A widely employed technique for solving NP-hard optimization problems consists in translating them into Mixed-Integer Linear Programming (MILP) programs, which hence can be solved by highly efficient commercial solvers. Besides harvesting the power of current solvers, formulating the problem as a MILP program immediately allows us to obtain an anytime algorithm that continuously improves its solution as more resources are given (time and memory), and can be stopped at any time with a feasible solution with error bounds. In this work, we developed a new algorithm that finds the most probable configuration for a set of variables in SPNs (Maximum A Posteriori inference) by reformulating it as a MILP program. This translation is rather intricate and relies on several results scattered throughout this field of study, such as the reformulation of SPNs as Bayesian Networks with latent variables, the compact representation of conditional probability tables through Algebraic Decision Diagrams and the symbolic manipulation of multilinear expressions by Parameterized Algebraic Decision Diagrams.

Ano

2021

Creators

Gustavo Perez Katague

iCOMB: estudo e reprojeto participativo para redefinição de um sistema para ensino-aprendizagem de combinatória

Os atuais avanços na área das Tecnologias da Informação e da Comunicação (TIC) estão mudando a Educação, com a disponibilização de sistemas educativos para apoiar as atividades no processo de ensino e de aprendizagem. Embora o tópico de combinatória seja relevante para o ensino médio e para os cursos de Ciências Exatas, este tópico tem sido desconsiderado nos avanços da Informática na Educação, principalmente ao se considerar o uso de ambientes de aprendizagem via Web. Atualmente, o iComb é, no melhor de nosso conhecimento, o único sistema Web integrável a tais ambientes. Ele é um Módulo de Aprendizagem Interativa (iMA) integrável ao Sistema Gerenciador de Cursos (SGC) Moodle, por meio do plugin iTarefa. O iComb oferece atividades de autoria de exercícios, bem como, sua avaliação automática. No entanto, considerando sua usabilidade, foram detectados alguns problemas na interface. O foco deste trabalho está relacionado ao reprojeto do sistema iComb e seu impacto na aprendizagem de combinatória. Para a reconstrução do iComb adotou-se o método de design de interação, buscando-se a participação efetiva de usuários finais do sistema, em todas as atividades desse processo, com (i) sessões de teste de usabilidade utilizando a versão Java do iComb para identificar problemas e guiar o redesenho do sistema, e (ii) prototipagem e avaliação da interface do sistema redesenhado. Esse processo permitiu implementar uma nova versão do iComb utilizando tecnologias associadas ao HTML5, que será brevemente disponibilizado como software livre.

Ano

2015

Creators

Márcia Roberta dos Santos Pires da Silva

Comparing vector document representation methods for authorship identification

Over the years the information available in online media has had a great increase. In this sense, the automation of processing languages natural for large amounts of information gained importance, for example, text classification task. It can be used to identify the author (Authorship Identification); however, it requires Machine Learning techniques to identify the author, these techniques have given good results in NLP. In addition, Machine Learning receives the feature vector of the texts, which is extracted using vector document representation methods. The methods proposed for this research are grouped into three different approaches: i) methods based on vector space models, ii) methods based on word embeddings, and iii) methods based on graph embeddings, for this approach, we first model the texts as graphs. On the other hand, not all the methods are used for different languages because they can have different efficiency depending on the language of the analyzed texts. Therefore, the objective of this research is to compare several of these methods using literary texts in English and Spanish. In this way, we analyze whether the methods are efficient to represent several languages or its performance depends on the characteristic of every language. The results showed that the methods of Graph embeddings achieved the best performance for both languages, being that English reached a fairly high success rate. On the other hand, the other methods achieved good performance for English, however, the results for Spanish were not optimal. We believe that the results in Spanish were worse due to the morphological, lexical, and syntactic complexity that this language presents in comparison to English. For this reason, different approaches were compared for the mathematical representation of texts that try to cover the different aspects of a language.

Ano

2021

Creators

Pamela Rosy Revuelta Quintanilla

Identificação de regiões codificantes de proteína através da transformada modificada de Morlet

Um tópico importante na análise de seqüências biológicas é a busca de genes, ou seja, a identificação de regiões codificantes de proteínas. Esta identificação permite a posterior procura de significado, descrição ou categorização biológica do organismo analisado. Atualmente, vários métodos combinam reconhecimento de padrões com conhecimento coletado de conjuntos de treinamento ou de comparações com banco de dados genômicos. Entretanto, a acurácia desses métodos está ainda longe do satisfatório. Novos métodos de processamento de seqüências de DNA e de identificação de genes podem ser criados através da busca por conteúdo (search-by-content). O padrão periódico de DNA em regiões codificantes de proteína, denominada periodicidade de três bases, vem sendo considerado uma propriedade dessas regiões. As técnicas de processamento digital de sinais fornecem uma base robusta para a identificação de regiões com periodicidade de três bases. Nesta dissertação, são apresentados um \\pipeline, os conceitos básicos da identificação genômica, e métodos de processamento digital de sinais utilizados para a identificação de regiões codificantes de proteínas. Introduzimos um novo método para a identificação dessas regiões, baseado na transformada proposta, denominada Transformada Modificada de Morlet. Apresentamos vários resultados experimentais obtidos a partir de seqüências de DNA sintéticas e reais. As principais contribuições do trabalho consistem no desenvolvimento de um pipeline para projetos genoma e na criação de um método de identificação de regiões codificantes onde a periodicidade de três bases seja latente. O método apresenta desempenho superior e vantagens importantes em comparação ao método tradicional baseado na transformada de Fourier de tempo reduzido.

Ano

2005

Creators

Jesus Pascual Mena Chalco

Interações gênicas usando redes booleanas limiarizadas modeladas como um problema de satisfação de restrições

As reações químicas que resultam da expressão de genes são complexas e ainda não são total- mente compreendidas. Sabe-se que os genes enviam, recebem, e processam informações formando uma complexa rede de comunicação, mas a arquitetura e dinâmica destas redes não são totalmente conhecidas. Dessa forma, um problema importante é determinar como os genes se relacionam dentro da célula. Esse processo de determinar o relacionamento entre os genes é conhecido como inferência de redes gênicas. Uma das formas para representar o relacionamento entre os genes é usar modelos matemáticos e computacionais de Redes Gênicas. Em especial, um dos modelos de grande interesse é o de Redes Booleanas (BN - do inglês Boolean Networks), no qual os genes podem assumir dois estados, ativo ou inativo, se estão, respectivamente, expressos ou não. Estes estados podem variar ao longo do tempo, dependendo de como os genes se relacionam. Nosso interesse está em estudar um caso particular deste modelo, conhecido como Redes Booleanas Limiarizadas, onde apenas uma classe de funções booleanas é utilizada para construir as BNs. Para inferir as Redes Booleanas Limiarizadas, usamos um algoritmo constituído de dois passos. Primeiro, usamos o arcabouço do Problema de Satisfação de Restrições (CSP - do inglês Constraint Satisfaction Problem) para inferir conjuntos de soluções consistentes com uma dada série temporal de um conjunto de genes. Em seguida analisamos o comportamento dinâmico das soluções encon- tradas , filtrando conjuntos de soluções de maior interesse para testes práticos em laboratório. Usando o arcabouço do CSP, construímos um solver, usando a biblioteca Gecode,1 para inferência de redes consistentes, usando como entrada uma série temporal oriunda de dados de microarrays. Em seguida, através da simulação da dinâmica de uma amostra das redes encontradas no passo anterior, fomos capazes de determinar algumas restrições interessantes para filtrar o conjunto de redes. Aplicamos o nosso método para três conjuntos de dados: dois artificiais, e para validação, usamos uma série temporal de uma rede artificial conhecida na literatura. Com isso fomos capazes de inferir conjuntos de redes gênicas de possível interesse para testes em laboratório.

Ano

2012

Creators

Tales Pinheiro de Andrade

Online convex optimization: algorithms, learning, and duality

Online Convex Optimization (OCO) is a field in the intersection of game theory, optimization, and machine learning which has been receiving increasing attention due to its recent applications to a wide range of topics such as complexity theory and graph sparsification. Besides the usually simple description and implementation of OCO algorithms, a lot of this recent success is due to a deepening of our understanding of the OCO setting and their algorithms by using cornerstone ideas from convex analysis and optimization such as the powerful results from convex duality theory. In this text we present a mostly self-contained introduction to the field of online convex optimization. We first describe the online learning and online convex optimization settings, proposing an alternative way to formalize both of them so we can make formal claims in a clear and unambiguous fashion while not cluttering the readers understanding. We then present an overview of the main concepts of convex analysis we use, with a focus on building intuition. With respect to algorithms for OCO, we first present and analyze the Adaptive Follow the Regularized Leader (AdaFTRL) together with an analysis which relies mainly on the duality between strongly convex and strongly smooth functions. We then describe the Adaptive Online Mirror Descent (AdaOMD) and the Adaptive Dual Averaging (AdaDA) algorithms and analyze both by writing them as special cases of the AdaFTRL algorithm. Additionally, we show simple sufficient conditions for Eager and Lazy Online Mirror Descent (the non-adaptive counter-parts of AdaOMD and AdaDA) to be equivalent. We also present the well-known AdaGrad and Online Newton Step algorithms as special cases of the AdaReg algorithm, proposed by Gupta, Koren, and Singer, which is itself a special case of the AdaOMD algorithm. We conclude by taking a bird\'s-eyes view of the connections shown throughout the text, forming a ``genealogy\'\' of OCO algorithms, and discuss some possible path for future research.

Ano

2019

Creators

Victor Sanches Portella

Assessment of fun from the analysis of facial images

This work investigates the feasibility of assessing fun from only the computational analysis of facial images captured from low-cost webcams. The study and development was based on a set of videos recorded from the faces of voluntary participants as they played three different popular independent games (horror, action/platform and puzzle). The participants also self-reported on their levels of frustration, immersion and fun in a discrete range [0,4], and answered the reputed Game Experience Questionnaire (GEQ). The faces were found on the videos collected by a face tracking system, developed with existing implementations of the Viola-Jones algorithm for face detection and a variation of the Active Appearance Model (AAM) algorithm for tracking the facial landmarks. Fun was represented in terms of the prototypic emotions and the levels of frustration and immersion. The prototypic emotions were detected with a Support Vector Machine (SVM) trained from existing datasets, and the frustration, immersion and fun levels were detected with a Structured Perceptron trained from the collected data and the self reported levels of each affect, as well as estimations of the gradient of the distance between the face and the camera and the blink rate measured in blinks per minute. The evaluation was supported by a comparison of the self-reported levels of each affect and the answers to GEQ, and performed with measurements of precision and recall obtained in cross-validation tests. The frustration classifier could not obtain a precision above chance, mainly because the collected data didn\'t have enough variability in the reported levels of this affect. The immersion classifier obtained better precision particularly when trained with the estimated blink rate, with a median value of 0.42 and an Interquartile Range (IQR) varying from 0.12 to 0.73. The fun classifier, trained with the detected prototypic emotions and the reported levels of frustration and immersion, obtained the best precision scores, with a median of 0.58 and IQR varying from 0.28 to 0.84. All classifiers suffered from low recall, what was caused by difficulties in the tracking of landmarks and the fact that the emotion classifier was unbalanced due to existing datasets having more samples of neutral and happiness expressions. Nonetheless, a strong indication of the feasibility of assessing fun from recorded videos is in the pattern of variation of the levels predicted. Apart from the frustration classifier, the immersion and the fun classifier were able to predict the increases and decreases of the respective affect levels with an average error margin close to 1.

Ano

2017

Creators

Luiz Carlos Vieira

Xenia: um sistema de segurança para grades computacionais baseado em cadeias de confiança

Os Sistemas de Grades Computacionais são intrinsecamente mais vulneráveis às ameaças de segurança que os Sistemas tradicionais, uma vez que abrangem um grande número de usuários e os recursos e as aplicações são geridas por diferentes domínios administrativos. A autenticação e a autorização são fatores imperativos para os Sistemas de Grade Computacional. Da mesma forma, a escalabilidade e a distribuição de dados vêm também sendo objeto de estudo de vários pesquisadores da área. Os serviços providos pelas Grades Computacionais devem evitar implementações centralizadas pela dificuldade do gerenciamento global. Outro importante requisito das Grades Computacionais é prover mecanismos para a delegação de direitos de acesso aos recursos. O proprietário do recurso deve ser capaz de delegar permissões para outro usuário, talvez por um tempo limitado, com base na confiança que possui neste. No entanto, a delegação deve ser usada com cuidado, pois uma longa cadeia de delegações poderia conduzir a uma utilização abusiva dos recursos pelos usuários maliciosos. Para tratar os principais requisitos de segurança das Grades Computacionais, desenvolvemos uma Arquitetura de Segurança denominada Xenia. Esta arquitetura é baseada em SPKI/SDSI, um modelo de segurança flexível, extensível e descentralizado que fornece autenticação, confidencialidade e controle de acesso. Propusemos uma extensão ao modelo SPKI/SDSI baseada em lógica subjetiva para representar relações de confiança entre indivíduos.

Ano

2008

Creators

José de Ribamar Braga Pinheiro Junior

Modelagem de contextos para aprendizado automático aplicado à análise morfossintática

A etiquetagem morfossintática envolve atribuir às palavras de uma sentença suas classes morfossintáticas de acordo com os contextos em que elas aparecem. Cadeias de Markov de Tamanho Variável (VLMCs, do inglês \"Variable-Length Markov Chains\") oferecem uma forma de modelar contextos maiores que trigramas sem sofrer demais com a esparsidade de dados e a complexidade do espaço de estados. Mesmo assim, duas palavras do português apresentam um alto grau de ambiguidade: \'que\' e \'a\'. O número de erros na etiquetagem dessas palavras corresponde a um quarto do total de erros cometidos por um etiquetador baseado em VLMCs. Além disso, essas palavras parecem apresentar dois diferentes tipos de ambiguidade: um dependendo de contexto não local e outro de contexto direito. Exploramos maneiras de expandir o modelo baseado em VLMCs através do uso de diferentes modelos e métodos, a fim de atacar esses problemas. As abordagens mostraram variado grau de sucesso, com um método em particular (aprendizado guiado) se mostrando capaz de resolver boa parte da ambiguidade de \'a\'. Discutimos razões para isso acontecer. Com relação a \'que\', ao longo desta tese propusemos e testamos diversos métodos de aprendizado de informação contextual para tentar desambiguá-lo. Mostramos como, em todos eles, o nível de ambiguidade de \'que\' permanece praticamente constante.

Ano

2010

Creators

Fábio Natanael Kepler

A framework for device interaction in a network of things

As devices in the IoT are increasing in number and capabilities, there is an opportunity of creating networks of smart devices that go beyond the current cloud-centric model of data-gathering and actuation. The Swarm project provides a middleware to create a bio-inspired distributed and organic network of heterogeneous devices. Under the context of the Swarm project, in this thesis, we aim to create a framework for the interaction of devices, consisting of registration in the network, discovery, composition, and mediation of services. Using semantics as a driving technique, we aim to create a communication framework that facilitates the development of IoT applications in the Swarm, as a first step towards constructing a smart self-organizing network for the future IoT. The proposed framework aims to overcome the problems of interoperability and composition by adapting lightweight open standards with a service-oriented architecture and novel composition and mediation mechanisms. To illustrate the use of our framework, we implemented a use case based on the recruiting of services for a surveillance system. The significant contributions of this thesis can be summarized as: an architecture and implementation for device interaction in the IoT, a lightweight model for semantic service description and semantic querying, a ranking algorithm for service selection in an economy-based IoT network, an ontology for IoT services, and a declarative composition and mediation. To evaluate our work, we used two methods. First, we performed a quantitative comparison between an implementation with and without the use of our framework, then, we conduct a qualitative comparison of features offered by our framework with other similar works.

Ano

2020

Creators

Pablo César Calcina Ccori

Classificação automática de documentos de características econômicas para defesa jurídica

Direito é uma das áreas beneficiadas pelo avanço da Inteligência Artificial, com destaque para automatização de tarefas como previsão de sentenças, diligência prévia, revisão de documentos e análise de propriedade intelectual. O Conselho Administrativo de Defesa Econômica (CADE), entidade vinculada ao Ministério da Justiça do Governo Federal do Brasil, tem como objetivo garantir a livre concorrência de mercado no território nacional. Uma de suas atribuições se dá pela avaliação e, aprovação ou reprovação, de processos de ato de concentração, que devem ser submetidos para avaliação pelo grupo de agentes econômicos envolvidos, quando a operação atende a determinados requisitos. Uma das tarefas iniciais realizadas nesta atividade se dá pela classificação do rito do processo, que pode ser sumário ou ordinário, de acordo com sua complexidade. A automatização da tarefa de classificação do rito pode acarretar menor burocracia, proveniente do menor tempo de avaliação do processo como um todo. Este trabalho visa avaliar técnicas de aprendizado de máquina, bem como de aprendizado profundo, que têm demonstrado melhorias no desempenho das tarefas de processamento de linguagem natural, para construção de modelos de classificação automática do rito de processos de ato de concentração, dividindo o problema em dois grandes subproblemas principais: (i) representação numérica e distribuída de palavras e textos de documentos dos processos e (ii) aprendizado supervisionado para classificação do rito indicado dos processos.

"Processamento distribuído de áudio em tempo real"

Sistemas computadorizados para o processamento de multimídia em tempo real demandam alta capacidade de processamento. Problemas que exigem grandes capacidades de processamento são comumente abordados através do uso de sistemas paralelos ou distribuídos; no entanto, a conjunção das dificuldades inerentes tanto aos sistemas de tempo real quanto aos sistemas paralelos e distribuídos tem levado o desenvolvimento com vistas ao processamento de multimídia em tempo real por sistemas computacionais de uso geral a ser baseado em equipamentos centralizados e monoprocessados. Em diversos sistemas para multimídia há a necessidade de baixa latência durante a interação com o usuário, o que reforça ainda mais essa tendência para o processamento em um único nó. Neste trabalho, implementamos um mecanismo para o processamento síncrono e distribuído de áudio com características de baixa latência em uma rede local, permitindo o uso de um sistema distribuído de baixo custo para esse processamento. O objetivo primário é viabilizar o uso de sistemas computacionais distribuídos para a gravação e edição de material musical em estúdios domésticos ou de pequeno porte, contornando a necessidade de hardware dedicado de alto custo. O sistema implementado consiste em duas partes: uma, genérica, implementada sob a forma de um middleware para o processamento síncrono e distribuído de mídias contínuas com baixa latência; outra, específica, baseada na primeira, voltada para o processamento de áudio e compatível com aplicações legadas através da interface padronizada LADSPA. É de se esperar que pesquisas e aplicações futuras em que necessidades semelhantes se apresentem possam utilizar o middleware aqui descrito para outros tipos de processamento de áudio bem como para o processamento de outras mídias, como vídeo.

Ano

2004

Creators

Nelson Posse Lago