RCAAP Repository
Explorando superpixels para a segmentação semiautomática de imagens médicas para recuperação por conteúdo
Nesse trabalho foi desenvolvido o método VBSeg, um método de segmentação semiautomático de corpos vertebrais, que utiliza superpixels para aumentar a eficiência de técnicas de segmentação de imagens já estabelecidas na literatura, sem perder qualidade do resultado final. Experimentos mostraram que o uso de superpixels melhorou o resultado da segmentação dos corpos vertebrais em até 18%, além de aumentar a eficiência desses métodos, deixando a execução dos algoritmos de segmentação pelo menos 38% mais rápida. Além disso, o método desenvolvido possui baixa dependência do nível de especialidade do usuário e apresentou resultados comparáveis ao método Watershed, um método bem estabelecido na área de segmentação de imagens. Contudo, o método VBSeg segmentou 100% dos corpos vertebrais das imagens analisadas, enquanto que o método Watershed deixou de segmentar 44% dos corpos.
AcCORD: um modelo colaborativo assíncrono para a reconciliação de dados
Reconciliação é o processo de prover uma visão consistente de dados provenientes de várias fontes de dados. Embora existam na literatura trabalhos voltados à proposta de soluções de reconciliação baseadas em colaboração assíncrona, o desafio de reconciliar dados quando vários usuários colaborativos trabalham de forma assíncrona sobre as mesmas cópias locais de dados, compartilhando somente eventualmente as suas decisões de integração particulares, tem recebido menos atenção. Nesta tese de doutorado investiga-se esse desafio, por meio da proposta do modelo AcCORD (Asynchronous COllaborative data ReconcIliation moDel). AcCORD é um modelo colaborativo assíncrono para reconciliação de dados no qual as atualizações dos usuários são mantidas em um repositório de operações na forma de dados de procedência. Cada usuário tem o seu próprio repositório para armazenar a procedência e a sua própria cópia das fontes. Ou seja, quando inconsistências entre fontes importadas são detectadas, o usuário pode tomar decisões de integração para resolvê-las de maneira autônoma, e as atualizações que são executadas localmente são registradas em seu próprio repositório. As atualizações são compartilhadas entre colaboradores quando um usuário importa as operações dos repositórios dos demais usuários. Desde que diferentes usuários podem ter diferentes pontos de vista para resolver o mesmo conflito, seus repositórios podem estar inconsistentes. Assim, o modelo AcCORD também inclui a proposta de diferentes políticas de reconciliação multiusuário para resolver conflitos entre repositórios. Políticas distintas podem ser aplicadas por diferentes usuários para reconciliar as suas atualizações. Dependendo da política aplicada, a visão final das fontes importadas pode ser a mesma para todos os usuários, ou seja, um única visão global integrada, ou resultar em distintas visões locais para cada um deles. Adicionalmente, o modelo AcCORD também incorpora um método de propagação de decisões de integração, o qual tem como objetivo evitar que um usuário tome decisões inconsistentes a respeito de um mesmo conflito de dado presente em diferentes fontes, garantindo um processo de reconciliação multiusuário mais efetivo. O modelo AcCORD foi validado por meio de testes de desempenho que avaliaram as políticas propostas, e por entrevistas a usuários que avaliaram não somente as políticas propostas mas também a qualidade da reconciliação multiusuário. Os resultados obtidos demonstraram a eficiência e a eficácia do modelo proposto, além de sua flexibilidade para gerar uma visão integrada ou distintas visões locais. As entrevistas realizadas demonstraram diferentes percepções dos usuários quanto à qualidade do resultado provido pelo modelo AcCORD, incluindo aspectos relacionados à consistência, aceitabilidade, corretude, economia de tempo e satisfação.
2016
Dayse Silveira de Almeida
Using phonetic knowledge in tools and resources for Natural Language Processing and Pronunciation Evaluation
This thesis presents tools and resources for the development of applications in Natural Language Processing and Pronunciation Training. There are four main contributions. First, a hybrid grapheme-to-phoneme converter for Brazilian Portuguese, named Aeiouadô, which makes use of both manual transcription rules and Classification and Regression Trees (CART) to infer the phone transcription. Second, a spelling correction system based on machine learning, which uses the trascriptions produced by Aeiouadô and is capable of handling phonologically-motivated errors, as well as contextual errors. Third, a method for the extraction of phonetically-rich sentences, which is based on greedy algorithms. Fourth, a prototype system for automatic pronunciation assessment, especially designed for Brazilian-accented English.
2016
Gustavo Augusto de Mendonça Almeida
Modelos ecológicos em redes complexas
Um dos padrões mais importantes que ocorrem em ecossistemas é a relação espécie-área, que relaciona o número de espécies em um ecossistema com a sua área disponível. O estudo dessa relação é fundamental para entender-se a biodiversidade e o impacto de políticas ambientais de preservação de espécies, de modo que é possível analisar desde os tamanhos das reservas necessários para a conservação das espécies e até verificar o impacto da intervenção humana em habitats naturais. Assim sendo, várias estratégias matemáticas e computacionais foram desenvolvidas para prever e entender esse padrão ecológico em modelos ecológicos. Todavia, muitas abordagens são simuladas em ambientes homogêneos e regulares, porém, sabe-se que, em cada ecossistema, há regiões com acidentes geográficos, variações de altitudes, vegetação e clima. Dessa forma, nesse trabalho, estamos interessados em estudar a influência de diferentes ambientes no processo de evolução das espécies. Para isso, consideramos modelos ecológicos que utilizam características geográficas para colonização e, comportamentos individuais como dispersão, mutação, acasalamento. Com isso, foi possível simular a propagação das espécies em diferentes topologias e analisar como ocorreu a dinâmica em cada uma delas. Assim, verificamos que a topologia regular e a dispersão homogênea dos indivíduos são duas características que maximizam a diversidade de espécies. E por outro lado, a formação de regiões mais densas e interações heterogêneas, contribuem para a diminuição da quantidade de espécies, apesar de em alguns casos, ajudarem na velocidade de propagação e colonização.
The Similarity-aware Relational Division Database Operator
In Relational Algebra, the operator Division (÷) is an intuitive tool used to write queries with the concept of for all, and thus, it is constantly required in real applications. However, as we demonstrate in this MSc work, the division does not support many of the needs common to modern applications, particularly those that involve complex data analysis, such as processing images, audio, genetic data, large graphs, fingerprints, and many other non-traditional data types. The main issue is the existence of intrinsic comparisons of attribute values in the operator, which, by definition, are always performed by identity (=), despite the fact that complex data must be compared by similarity. Recent works focus on supporting similarity comparison in relational operators, but no one treats the division. MSc work proposes the new Similarity-aware Division (÷) operator. Our novel operator is naturally well suited to answer queries with an idea of candidate elements and exigencies to be performed on complex data from real applications of high-impact. For example, it is potentially useful to support agriculture, genetic analyses, digital library search, and even to help controlling the quality of manufactured products and identifying new clients in industry. We validate our proposal by studying the first two of these applications.
2017
André dos Santos Gonzaga
Effective and unsupervised fractal-based feature selection for very large datasets: removing linear and non-linear attribute correlations
Given a very large dataset of moderate-to-high dimensionality, how to mine useful patterns from it? In such cases, dimensionality reduction is essential to overcome the well-known curse of dimensionality. Although there exist algorithms to reduce the dimensionality of Big Data, unfortunately, they all fail to identify/eliminate non-linear correlations that may occur between the attributes. This MSc work tackles the problem by exploring concepts of the Fractal Theory and massive parallel processing to present Curl-Remover, a novel dimensionality reduction technique for very large datasets. Our contributions are: (a) Curl-Remover eliminates linear and non-linear attribute correlations as well as irrelevant attributes; (b) it is unsupervised and suits for analytical tasks in general not only classification; (c) it presents linear scale-up on both the data size and the number of machines used; (d) it does not require the user to guess the number of attributes to be removed, and; (e) it preserves the attributes semantics by performing feature selection, not feature extraction. We executed experiments on synthetic and real data spanning up to 1.1 billion points, and report that our proposed Curl-Remover outperformed two PCA-based algorithms from the state-of-the-art, being in average up to 8% more accurate.
2017
Antonio Canabrava Fraideinberze
Um modelo de navegação exploratória para a infra-estrutura da web semântica
Esta tese propõe um modelo de navegação exploratória para a infra-estrutura da Web Semântica, denominado Navigation and Exploration Model (NAVE). O modelo NAVE foi desenvolvido com base na literatura de information searching, nos níveis de atividades de information seeking, e na estratégia de orienteering. O objetivo é facilitar o projeto e desenvolvimento de sistemas de navegação exploratória. O NAVE é descrito por meio de uma representação gráfica dos estágios e decisões do processo de navegação e suas respectivas técnicas de suporte à navegação, além de recomendações. Um sistema, denominado de Exploratory Navigation System (ENS), foi desenvolvido para avaliar a viabilidade de utilizar o modelo NAVE em aplicações reais. O sistema ENS é composto de diversas ferramentas de navegação que permitem ao usuário escolher a ferramenta adequada, ou a melhor combinação de ferramentas, provavelmente ajustada ao seu nível de habilidade e conhecimento, à sua preferência, e ao tipo de informação que ele está procurando no momento. O sistema permite ao usuário priorizar de maneiras diferentes as suas escolhas de ferramentas em cada passo de uma estratégia de orienteering, subjacente ao modelo NAVE. Essas ferramentas podem apresentar vantagens complementares no contexto de uma tarefa de information searching. O sistema ENS foi avaliado utilizando uma abordagem tanto qualitativa quanto quantitativa, que serviram para refinar as questões de pesquisa e explorar o modelo NAVE. Primeiro, um estudo de usabilidade foi conduzido que combinou vários métodos, como questionários, think-aloud, entrevistas, e registro da interação do usuário. Esse estudo forneceu informações com relação às ferramentas e o modelo NAVE subjacente, as quais foram consideradas no seu desenvolvimento. Segundo, um estudo experimental foi conduzido para comparar o ENS com uma abordagem de busca por palavra-chave. Os resultados forneceram indicações estatísticas de que os participantes tiveram desempenho superior utilizando o ENS
2007
Luciano Tadeu Esteves Pansanato
Investigação de combinações de técnicas de detecção de ruído para dados de expressão gênica
Ruído pode ser definido como um exemplo em um conjunto de dados que aparentemente é inconsistente com o restante dos dados existentes, pois não segue o mesmo padrão dos demais. Ruídos em conjuntos de dados podem reduzir o desempenho das técnicas de Aprendizado de Máquina (AM) empregadas e aumentar o tempo de construção da hipótese induzida, assim como sua complexidade. Dados são geralmente coletados por meio de medições realizadas em um domínio de interesse. Nesse sentido, nenhum conjunto de dados é perfeito. Erros de medições, dados incompletos, errados, corrompidos ou distorcidos, falhas humanas ou dos equipamentos utilizados, dentre muitos outros fatores, contribuem para a contaminação dos dados, e isso é particularmente verdadeiro para dados com elevada dimensionalidade. Sendo assim, a detecção de ruídos é uma tarefa crítica, principalmente em ambientes que exigem segurança e confiabilidade, uma vez que a presença desses pode indicar situações que degradam o desempenho do sistema ou a segurança e confiabilidade das informações. Algoritmos para a detecção e remoção de ruídos podem aumentar a confiabilidade de conjuntos de dados ruidosos. Nesse âmbito, esse trabalho investiga técnicas de detecção de ruído baseadas em distância, em que a remoção de ruídos é feita em uma etapa de pré-processamento, aplicadas a problemas de classificação de dados de Expressão Gênica, caracterizados pela presença de ruídos, elevada dimensionalidade e complexidade. O objetivo é melhorar o desempenho das técnicas de AM empregadas para solucioná-los. Por fim, combinações de técnicas de detecção de ruído são implementadas de modo a analisar a possibilidade de melhorar, ainda mais, o desempenho obtido.
2007
Giampaolo Luiz Libralon
Simulação numérica 3D do enchimento de compartimentos de reservatórios utilizando o método de elementos finitos
A simulação numérica de escoamentos de fluidos em uma grande variedade de aplicações requer a utilização de técnicas numéricas de alta eficência e recursos computacionais de alto desempenho. O objetivo deste trabalho é iniciar uma investigação de escoamentos de fluido durante o enchimento de compartimentos de reservatórios. Uma abordagem inicial foi tratar problemas de escoamento em um canal, rebuscando a geometria do domínio para contemplar problemas mais complexos. Este trabalho apresenta o desenvolvimento e os resultados obtidos de um método numérico para simulação de escoamento de fluido incompressível em um domínio tridimensional, onde as equações de Navier-Stokes são desenvolvidas em uma formulação euleriana e discretizadas pelo método de elementos finitos. Os termos convectivos destas equações foram tratados pelo método semi-lagrangeano e o método de Galerkin foi utilizado para discretização espacial, um método baseado em decomposição LU foi utilizado para desacoplar as componentes de velocidade e pressão, sendo esta última calculada utilizando-se uma aproximação hidrostática. O domínio tridimensional foi representado por uma malha manipulada por uma estrutura de dados topológica, formada por células que definem elementos prismáticos lineares. Foram realizados experimentos sob várias alterações na geometria do domínio e também sob diferentes condições iniciais. Os resultados mostraram uma boa aproximação do método, quando analisado comparativamente a uma solução analítica
2007
Fernanda Paula Barbosa
Simulação numérica do escoamento em torno de um cilindro utilizando o método das fronteiras imersas
O escoamento em torno de corpos tem sido objeto de estudo de muitos pesquisadores e é muito explorado experimental e computacionalmente, devido a sua grande aplicabilidade na engenharia. No entanto, simular computacionalmente este tipo de escoamento requer uma atenção especial ao escolher o tipo malha a ser utilizado. Em muitos casos faz-se necessário o uso de uma malha que se adapte ao contorno do obstáculo, o que pode ocasionar um aumento no esforço computacional. Um maneira de contornar este problema é a utilização do Método das Fronteiras Imersas, que possibilita o uso de malha cartesiana na simulação computacional do escoamento em torno de obstáculos. Isso é possível através da adição de um termo forçante nas equações que modelam o escoamento, e assim as forças que agem sobre o contorno do corpo são transferidas diretamente para a malha. O objetivo deste trabalho de mestrado foi implementar o método das Fronteiras Imersas e simular o escoamento em torno de um cilindro circular em repouso, movimentando-se na mesma direção do escoamento, na direção perpendicular ao escoamento, ou rotacionando em torno do próprio eixo. As simulações computacionais possibilitaram a captura do fenômeno de Atrelagem Síncrona, caracterizado pela sincronia entre a frequência de desprendimento natural de vórtices e a frequência de oscilação do mesmo. O Método das Fronteiras Imersas mostrou um ótimo desempenho quando comparado a resultados experimentais e numéricos encontrados na literatura
2007
Evelise Roman Corbalan Góis
β-Conexão; uma família de objetos tridimensionais reconstruídos a partir de seções planares
Neste trabalho, uma nova técnica de reconstrução tridimensional é apresentada. Esta técnica oferece uma família de modelos, governada por um parâmetro chamado β, e que pode ser obtida a partir de um mesmo conjunto de seções planares. Este fato faz possível múltiplas opções para o problema da correspondência, tarefa difícil de ser realizada por outros métodos de reconstrução. Além da flexibilidade na conexão entre regiões de níveis consecutivos, o algoritmo produz LP-variedades e respeita a condição de reexemplificação.
2001
Alex Jesús Cuadros Vargas
Gramática de unificação funcional: levantamento de requisitos para a geração sentencial de português
Neste trabalho especificam-se os recursos lingüísticos e computacionais necessários à implementação de um realizador monosentencial para o português a partir de uma linguagem de representação semântica. Para desenvolver este gerador necessita-se de uma teoria lingüística que descreva os recursos da língua em questão, e também de um formalismo computacional que represente e manipule estes recursos lingüísticos em um ambiente computacional. Nesta dissertação, com o intuito de atender a estes requisitos, será proposto o uso de teorias lingüísticas baseadas em restrições e o uso de um sistema de geração baseado em unificação. A linguagem de representação semântica utilizada é a UNL (Universal Networking Language). Sendo assim, o gerador aqui proposto deverá converter, uma por vez, cada uma fins sentenças da UNL em orações gramaticalmente corretas do português.
2001
Alexsandro Santos Soares
Especificação de um modelo formal para aplicações em sistemas hipermídia abertos
UMA tendência no projeto de sistemas hipemiidia é o desenvolvimento de sistemas que sejam abertos, extensíveis e distribuídos entre diferentes usuários. Na última década vários sistemas hipermidia abertos foram apresentados na literatura. Nesse contexto, técnicas formais consistem de ferramentas muito úteis para especificação de aplicações hipermídia (e por conseguinte, de aplicações em sistemas hipermídia abertos) por possibilitar que determinada solução especificada seja precisa, não ambígua, independente de sua implementação e reutilizável. Além disso, modelos formais adequados podem oferecer abordagens sistemáticas e confiáveis para a análise e verificação de propriedades estruturais e dinâmicas dessas aplicações. Este projeto de mestrado tem como objetivo verificar a adequação do modelo formal XHMBS (eXtended Hypertext Model Based ou Statecharts) em relação à especificação de aplicações em sistemas hiperrnídia abertos e propor extensões a esse modelo para permitir a especificação de tais aplicações.
2001
Aline Maria Malachini Miotto
Implementação de um controlador PID digital para robótica baseado em computação reconfigurável
Neste trabalho de mestrado foram desenvolvidas duas arquiteturas de controlador PID (Proporcional, Integral e Derivativo) digital para controle de motores CC. O controlador PID foi desenvolvido para ser integrado a um sistema mais complexo de gerenciamento de um robô. O controlador PID permite que se obtenha respostas mais rápidas e precisas do sistema a ser controlado, que, no caso deste trabalho, é um motor. Por ser relativamente simples de implementar e também por possuir parâmetros de fácil sintonia, o PID é o tipo de controle mais utilizado para esta classe de aplicação. Para o desenvolvimento do controlador foram utilizadas metodologias e ferramentas avançadas para projeto de hardware, tendo como alvo da implementação, os dispositivos reconfiguráveis FPGA (Field Programmable Gate Arrays). Os resultados de desempenho apresentados pelas arquiteturas e a flexibilidade de projeto proporcionados pela implementação em FPGAs indicam que a metodologia escolhida é adequada para esta aplicação
2001
André Linhares Giorgini
Processamento de consultas SOLAP drill-across e com junção espacial em data warehouses geográficos
Um data warehouse geográco (DWG) é um banco de dados multidimensional, orientado a assunto, integrado, histórico, não-volátil e geralmente organizado em níveis de agregação. Além disso, também armazena dados espaciais em uma ou mais dimensões ou em pelo menos uma medida numérica. Visando oferecer suporte à tomada de decisão, é possível realizar em DWGs consultas SOLAP (spatial online analytical processing ), isto é, consultas analíticas multidimensionais (e.g., drill-down, roll-up, drill-across ) com predicados espaciais (e.g., intersecta, contém, está contido) denidos para range queries e junções espaciais. Um desafio no processamento dessas consultas é recuperar, de forma eficiente, dados espaciais e convencionais em DWGs muito volumosos. Na literatura, existem poucos índices voltados à indexação de DWGs, e ainda assim nenhum desses índices dedica-se a indexar consultas SOLAP drill-across e com junção espacial. Esta dissertação visa suprir essa limitação, por meio da proposta de estratégias para o processamento dessas consultas complexas. Para o processamento de consultas SOLAP drill-across foram propostas duas estratégias, Divide e Única, além da especicação de um conjunto de diretrizes que deve ser seguido para o projeto de um esquema de DWG que possibilite a execução dessas consultas e da especicação de classes de consultas. Para o processamento de consultas SOLAP com junção espacial foi proposta a estratégia SJB, além da identicação de quais características o esquema de DWG deve possuir para possibilitar a execução dessas consultas e da especicação do formato dessas consultas. A validação das estratégias propostas foi realizada por meio de testes de desempenho considerando diferentes congurações, sendo que os resultados obtidos foram contrastados com a execução de consultas do tipo junção estrela e o uso de visões materializadas. Os resultados mostraram que as estratégias propostas são muito eficientes. No processamento de consultas SOLAP drill-across, as estratégias Divide e Única mostraram uma redução no tempo de 82,7% a 98,6% com relação à junção estrela e ao uso de visões materializadas. No processamento de consultas SOLAP com junção espacial, a estratégia SJB garantiu uma melhora de desempenho na grande maioria das consultas executadas. Para essas consultas, o ganho de desempenho variou de 0,3% até 99,2%
Desenvolvimento de esquema upwind para equações de conservação e implementação de modelagens URANS com aplicação em escoamentos incompressíveis
Nesta tese é apresentado um esquema novo de alta resolução upwind (denominado TDPUS-C3) para reconstrução de fluxos numéricos para leis de conservação não lineares e problemas relacionados em DFC. O esquema é baseado nos critérios de estabilidade CBC e TVD e desenvolvido utilizando condições de diferenciabilidade \'C POT. 3\'. Além disso, é realiozada a implementação da associação do esquema TDPLUS-C3 com a modelagem de turbulência RNG \'\\kappa - \\epsilon\'. O propósito é obter soluções numéricas de sistemas hiperbólicos de leis de conservação para dinâmica dos gases e equações de Navier-Stokes para escoamento incompreensível de fluidos newtonianos e não newtonianos (viscoelásticos). Fazendo o uso do esquema TDPUS-C3, a precisão global dos métodos numéricos é verificada acessando o erro em problemas teste (benchmark) 1D e 2D. Um estudo comparativo entre os resultados do esquema TDPUS-C3 e os esquemas upwind convencionais para leis de conservação hiperbólicas complexas é também realizado. A Associação das modelagens numéricas (upwinding mais RNG \'\\kappa - \\epsilon\') é , então, examinada na simulação de escoamentos turbulentos de fluidos newtonianos envolvendo superfícies livres móveis, usando a metodologia URANS. No geral, em termos do comportamento global, concordância satisfatória é observada
2012
Miguel Antonio Caro Candezano
Técnica de agrupamento de dados baseada em redes complexas para o posicionamento de cluster heads em rede de sensores sem fio
Redes de Sensores Sem Fio são um tipo especial de rede ad-hoc que são posicionadas em uma região para monitorar fenômenos físicos. Considerando que os sensores dessas redes são independentes e possuem um raio de cobertura pequeno, é comum a utilização de um grande número de sensores para monitorar uma área grande. Um problema nesses tipos de redes é garantir que o máximo de dados capturados por esses sensores sejam coletados e transmitidos até uma estação base para que possam ser analisados por usuários. Uma abordagem para resolver esse problema é por meio da utilização de sensores especiais chamados cluster heads. Esses sensores são posicionados estrategicamente para coletar a informação de um grupo de sensores e transmiti-la para a estação base. Assim surge a necessidade de agrupar esses sensores. Nesse trabalho é proposta uma técnica híbrida baseada no algoritmo de agrupamento de dados K-Médias e em detecção comunidades em redes complexas. Esse algoritmo, chamado de QK-Médias, tenta aproveitar as vantagens das duas abordagens em duas etapas. Primeiro a rede é quebrada em comunidades usando uma técnica de detecção de comunidades. Em seguida essas comunidades são quebradas em subcomunidades de tal forma que os cluster heads consigam gerenciar. Os resultados obtidos a partir do agrupamento de sensores utilizando o QK-Médias mostram que é possível diminuir o número de mensagens perdidas na rede utilizando menos cluster heads que algoritmos tradicionais de agrupamento em redes de sensores sem fio
2012
Leonardo Nascimento Ferreira
PSPBuilder: Uma Ferramenta de Apoio ao Processo de Software Pessoal
O Processo de Software Pessoal (PSP), derivado do CMM (Capabili(y Matado, Moda\'), ambos do SEI (Software Engineering Institute), é uma nova abordagem que aplica conceitos importantes de engenharia de software em nível individual para desenvolver software. O PSP faz uso de um conjunto de sete etapas seqüenciais e progressivas e cada uma dessas etapas possui um conjunto de roteiros, formulários e gabaritos associados, incluindo todos os elementos das etapas anteriores, com a adição de um ou mais elementos novos. O bom uso do PSP depende de treinamento apropriado, da adaptação do próprio processo ao contexto atual de desenvolvimento da organização (métodos e linguagens) e do apoio automatizado às atividades de coleta, manuseio e cálculos sobre os dados do processo, para permitir o aumento da produtividade, a redução de erros, a simplificação das tarefas rotineiras e a liberação dos engenheiros de software para as atividades de maior criatividade. Nesta dissertação faz-se uma revisão bibliográfica deste processo e de alguns importantes modelos de qualidade existentes atualmente; adapta-se o PSP para o Domínio de Sistemas de Informação (com PowerBuilder como linguagem de desenvolvimento); apresenta-se o PSPBuilder, uma ferramenta de apoio ao PSP concebida especialmente para esse mesmo Domínio de Sistemas de Informação e, finalmente, um exemplo de uso dessa ferramenta. A adaptação do PSP consiste principalmente na elaboração de alguns formulários cujos objetivos são: padronizar a codificação para garantir clareza e homogeneidade do código fonte produzido, definir a regra de contagem dessas linhas de código e apresentar um roteiro de revisão de código para garantir qualidade durante as fases de compilação e teste do software. O PSPBuilder apóia o PSP na maioria das etapas (com exceção do PSP3, Desenvolvimento Cíclico), integra-se ao PowerBuilder principalmente para contar objetos de um programa e as linhas de código desses objetos e permite adaptações do processo original, facilitando assim a personalização do processo individual. As características principais do PSPBuilder são: é desenvolvido em três camadas, tem arquitetura Cliente/Servidor (PowerBuilder no Cliente e Sybase SQL Anywhere no Servidor) e é orientado a eventos e também a objetos para o ambiente operacional Windows de 32 bits. No exemplo de uso do PSPBuilder demonstram-se ganhos de tempo e precisão dos resultados nas fases de Planejamento e Autópsia de desenvolvimento de software.
1998
Djalma Domingos da Silva
Captura da interação para autoria e compartilhamento multimídia em dispositivos móveis
Dispositivos móveis do tipo smartphones e tablets possibilitam uma interação rica e intuitiva, abrindo novas possibilidades para usuários e desenvolvedores. Entre as características que os tornam populares estão a alta capacidade de processamento, a melhoria constante das alternativas de interação com usuários e a possibilidade de captura de imagens e vídeos, além da comodidade de acessar serviços e informações em dispositivos tão portáteis. Além disso, ao longo dos últimos anos tem-se observado uma cultura de geração de conteúdo por parte de usuários, ao mesmo tempo que dispositivos móveis se tornam populares reprodutores de mídias e adquirem um papel importante na produção de conteúdo multimídia. Da mesma forma que novas mídias podem ser capturadas é também possível enriquece-las com anotações. Anotações são comuns em documentos textuais e recentemente tornaram-se populares em imagens, sendo possível encontrar diversos aplicativos para anotação em dispositivos móveis. No entanto, aplicativos para anotação em vídeo em dispositivos móveis ainda são raros. Explorando esta oportunidade, o principal objetivo deste trabalho foi investigar alternativas de interação entre usuários e seus dispositivos móveis considerando o cenário de anotação em vídeos. Para investigar os problemas relacionados foi desenvolvido um aplicativo executável em tablets e smartphones com soluções singulares para o contexto proposto. Com foco na interação humano-computador foram realizadas três avaliações, sendo uma avaliação de usabilidade com usuários, uma avaliação heurística com especialistas e uma avaliação colaborativa com uma usuária da área de terapia ocupacional. Resultados de avaliações auxiliaram na definição de novos requisitos e na identificação de problemas que se aplicam não apenas ao contexto de anotações em vídeo, mas em aplicações para dispositivos móveis, de forma geral. Assim, as principais contribuições deste trabalho consistem em soluções relacionadas à autoria multimídia, à captura de interações para sistemas de anotação em vídeo em dispositivos móveis e à usabilidade para aplicativos.
2014
Bruna Carolina Rodrigues da Cunha
Um processo para sistemas web com foco em acessibilidade e usabilidade
Com o aumento do uso e da complexidade de sistemas web, o desenvolvimento de tais sistemas com qualidade exige a adoção de uma abordagem sistemática e bem definida. Assim, a engenharia web é uma disciplina essencial que considera, além de características da engenharia de software, fatores inerentes aos sistemas web, como a multiplicidade de perfis de usuários. A engenharia web é apoiada por processos, métodos, técnicas e ferramentas que são elementos fundamentais para o desenvolvimento de sistemas web, os quais devem ser adequados para fornecer suporte às ações inerentes ao projeto e à implementação. Esses elementos devem ser selecionados, combinados e tecnicamente implementados de modo a produzir um sistema web acessível e usável. Nesta tese é proposto um processo de desenvolvimento que possui fases gerais bem definidas para a inserção de requisitos de acessibilidade e usabilidade no desenvolvimento de sistemas web, garantindo o seu uso pela maioria das pessoas e facilitando seus meios de acesso. Um estudo de caso foi realizado para verificar a efetividade da aplicação do processo formalizado, o qual possibilitou o desenvolvimento de um sistema acadêmico de agendamento de bancas. Considerando-se a dificuldade prática de avaliar diretamente o processo, foram realizados um experimento controlado e um estudo de viabilidade comparando o sistema acadêmico desenvolvido com outro sistema de mesmo propósito e funcionalidades, mas desenvolvido de maneira ad-hoc. Por meio das avaliações realizadas nos dois sistemas de agendamento de bancas, indiretamente avaliou-se o processo formalizado e foram encontrados fortes indícios sobre a efetividade do processo proposto. Adicionalmente, foi criado um instrumento de medição objetivo e quantitativo das características de acessibilidade e usabilidade de um sistema web. Foi também criado um método para avaliar, comparar e melhorar a acessibilidade e a usabilidade de sistemas web existentes. Tanto o instrumento de medição quanto o método de avaliação podem ser aplicados, independentemente, a qualquer sistema web.