3w1h - where what why and how: uma abordagem prática para desenvolvimento de ambientes interativos
TRANSCRIPT
1
Almerindo N. Rehem Neto (Federal Institute of Sergipe) Celso A. Saibel Santos (Federal University of Espirito Santo)
Estevao B. Saleme (Federal University of Espirito Santo)
2
Where, What, Why and How - 3W1H: Uma abordagem prática para desenvolvimento de ambientes interativos
4
INTRODUÇÃO
A popularização de sensores RGB-D decorrente da plataforma do Kinect
Os software development kit (SDK), frameworks, e libraries lançados para este propósito
Fornecem aos desenvolvedores as ferramentas necessárias para criar cenários interativos complexos.
5
Esse processo de popularização
Tem gerado um crescimento desordenada em soluções AD-HOC
Muitas vezes com tarefas repetitivas e sem uma metodologia mais formal para orientar e ajudar os desenvolvedores na concepção e implementação de ambientes interativos.
INTRODUÇÃO
6
INTRODUÇÃO
Time
Effort
O desenvolvimento de ambientes interativos geralmente exige muito tempo e esforço para lidar com todos os componentes de software e informações relacionadas a dispositivos. Como sensores de câmera, microfones, luzes e outros.
7
Motivação O desenvolvimento de ambientes interativos geralmente exige muito
tempo e esforço para lidar com todos os componentes de software e informações relacionadas a dispositivos diferentes.
Gap: Muitas soluções ad-hoc desestruturadas
Com isso, surgiram algumas questões em aberto:– Como desenvolver aplicações para ambientes interativos
de forma estruturada para proporcionar o reuso?– Como associar/combinar as interações com as reações de
forma sistemática ?
8
Propósitos Formalizar e explicar os estágios de desenvolvimento para
ambientes interativos Inspirados no Behaviorismo que opera através dos
princípios de estímulo-resposta; Combinando as ações relacionadas com um
reconhecimento de evento específico para descrever o comportamento desejado.
• Separar as preocupações relacionadas com a interação do usuário, sensores e os atuadores.
Avaliar a proposta através de estudo de casos
9
Desenvolvimento do ambiente interativo
Nesta abordagem, quatro questões norteadoras deverão ser respondidas durante o design e implementação do ambiente :
1.Where will it happen? 2.What will happen?3.Why will it happen? 4.How will it happen?
Estas questões constituem a base para o guia passo-a-passo aqui sugerido.
10
Interactive Environment Development
Where will it happen? Tal questão especifica um conjunto de características observáveis no ambiente em que o utilizador está imerso, bem como os dispositivos de entrada e sensores detectados no contexto de interação.
Estas características esclarecem a composição de ações e reações no ambiente interativo. Identifica uma situação em particular e todos os objetos pertencentes, sejam reais ou virtuais.
What will happen?
Esta pergunta especifica as ações a serem executadas no ambiente interativo, seja no mundo virtual (por exemplo, mudança de cor de um botão após ser pressionado) ou no mundo real (ligar / desligar uma lâmpada) uma vez uma situação particular é reconhecida.
Why will it happen? Tal questão estabelece que estímulos pode ser gerado no ambiente em resposta a uma interacção do utilizador;
O reconhecimento de tais interações do usuário em uma situação particular irá desencadear eventos que definem uma seqüência de ações que alteram o comportamento do ambiente.
How will it happen? Várias interações podem ser detectadas simultaneamente. Responder a esta pergunta ajuda a esclarecer a sequência de ações e eventos esperados no ambiente, a depender do estímulo e contexto. Ou seja, um determinado ambiente pode se comportar de forma diferente para a mesma interação do usuário em diferentes contextos.
14
Environment Specification
Objetos passivos podem ser do tipo: Cenográficos, Captura,Processamento e Comunicação
Objetos ativos participam da cena, interagindo de algumamaneira com o usuário. Estes objetos modificam seu estado oucomportamento reagindo a essas interações
16
Actions Specification
Para cada objeto ativo, identificar todas as reações possíveis que deverá sofrer.
22
Behavior Frames Composition
Step 4 Step 4 Para compor Behavior Frame nós associamos os eventos dos reconhecedores de interações com uma ou mais ações mapeadas.
23
BF01 : Associa o evento de reconhecimento da Interação INT01 à execução das reações ACT01 e ACT10.
24
Ou seja, indica que quando houver o gesto de acenar com as mãos (INT01), deverá ligar o aparelho de TV enviando o sinal infravermelho de ligar TV (ACT01) e em seguida exibirá um determinado ícone na tela do computador (ACT10).
25
•BF02 e BF03 : Associam, respectivamente, o reconhecimento das interações ”mão para esquerda” (INT02) e ”mão para direita” (INT03) com a execução das reações responsáveis por aumentar (ACT04) e diminuir o canal (ACT05) da TV. Ao final, ambos exibem um determinado ícone na tela do computador representando visualmente qual interação ocorreu (ACT10). •BF04 e BF05: Associam as interações de ”mão para cima” (INT04) e ”mão para baixo” (INT05) com a execução das reações responsáveis por aumentar (ACT06) e diminuir o volume (ACT07) da TV, exibindo ao final um ícone na tela do computador representando o acontecimento da interação.
26
•BF06: Faz a associação da interação INT07 com as reações ACT08 e ACT10. Esta associação indica que caso o gesto de afastar as mãos juntas horizontalmente seja reconhecido (INT07), deverá ser enviado o sinal infravermelho EPG (ACT08) e ser exibido um ícone na tela do computador (ACT10). •BF07: Associa o acontecimento da interação ”Mão Sentido para Frente” (INT04) com as reações ACT03 e ACT10, indicando que quando tal gesto acontecer, deverá ser enviado o sinal infravermelho Select Channel (ACT03) e ser exibido um determinado ícone na tela do computador (ACT10).
27
•BF08 e BF09: Utilizam os eventos de acontecimentos dos gestos ”Mão para cima” (INT05) e ”Mão para baixo” (INT06) para associá-los às reações de aumentar (ACT04) e reduzir o canal (ACT05), respectivamente. E ambos, ao final, exibem um ícone na tela do computador (ACT10). •BF10: Associa o gesto de afastar, horizontalmente, as mãos juntas (INT07) com as reações de sair da Guia de Programação Eletrônica-EPG e de exibir ícone na tela do computador. •BF11: Associa o gesto de acenar com as mãos com as ações de desligar a TV e exibir ícone em tela do computador.
35
O Diagrama de Caso de Uso ilustrado pela Figura 11, faz umresumo dos casos de usos genéricos de um ambiente interativo.
A partir da especialização deste caso de uso, aplicando-o noambiente desejado, os analistas poderão construir o comportamentodos seus próprios ambientes interativos de maneira estruturada.
36
Como entregáveis, esta etapa deverá ter como saída um diagramade Casos de Uso e um diagrama de Classes semelhante ao modelo sugerido, adaptado às especificidades do negócio
37
Avaliação da PropostaA avaliação da abordagem foi executada sobre duas dimensões:tempo de construção do projeto e usabilidade da abordagem.
Foram selecionados 9 profissionais de mercado com experiência mínima de 5 anos em análise de sistemas e divididos em dois grupos.
O Grupo ”A”, com cinco analistas do Tribunal de Justiça de Sergipe e o Grupo ”B” com quatro analistas da Secretaria de Fazenda do Estadode Sergipe.
Para cada grupo foi entregue um mesmo estudo de caso e solicitada a elaboração de um modelo preliminar de construção de um projeto, sob a supervisão dos pesquisadores.
38
Avaliação da PropostaPara o Grupo ”A”, o modelo seria construído sem o uso da metodologia 3W1H.
Para o Grupo ”B”, o modelo seria construído com o uso da mesma. Ao Grupo ”B” foi explicada a abordagem proposta e solicitou-se que tentassem seguir as etapas sugeridas pela metodologia.
Ao final do experimento, todo o material foi recolhido, digitalizado e analisado.
39
Avaliação Grupo A
i) Identificação dos objetos em cena; ii) Identificação das reações que cada objeto poderá fazer no ambiente; iii) Preocupação com quais interações reconhecer; iv) Preocupação se as interações possuem umarepresentação adequada e; v) Preocupação com o comportamento do ambiente conforme o contexto em que é utilizado.
41
Avaliação Grupo B
Para o Grupo ”B”, ao final do estudo de caso, foi aplicado um questionário utilizando escala likert de cinco pontos paraavaliar a usabilidade da tecnologia.
O entrevistado respondia com as variações entre o intervalo ”Concordo Totalmente” e “Discordo Totalmente”, com valores agregados num intervalo de 5 a 1, respectivamente, para o cálculo da média dos valores, na análise.
43
Outro Caso de Uso publicado no SMC IEEE
Available at https://youtu.be/a5QPsB2zKpk
44
Outro Caso de Uso: Criando uma casa interativa
https://youtu.be/fWASCY_lXDk
45
Outro Caso de Uso: Criando uma casa interativa
https://youtu.be/CwbWoagKBqg
46
Conclusão
Este artigo apresentou um estudo de várias pesquisas científicas e tecnológicas relacionadas com ambientes interativos indoor
Fez uma analise crítica dos trabalhos relacionadose apresentou uma nova abordagem, intitulada de
Where, What, Why and How - 3W1H, inspirada por uma outra área da ciência, conhecida como Behaviorismo.
47
ConclusãoTodo o processo proposto na abordagem foi validado
através da construção de um estudo de caso real para controlar uma TV através de gestos.
A viabilidade de utilização da abordagem 3W1H também foi avaliada através de experimento real.
A abordagem foi testada em ambientes interativos distintos como o caso do trabalho de Saleme et al. [1], que coloca em prática toda a abordagem proposta com o objetivo de integrar efeitos multi-sensoriais em ambientes interativos.
[1] Celso A. S. Santos, Almerindo N. Rehem Neto, and Estevão B. Saleme. 2015. An Event Driven Approach forIntegrating Multi-Sensory Effects to Interactive Environments.. In IEEE International Conference onSystems, Man, and Cybernetics (SMC 2015).
48
Thanks!
Almerindo Rehem [email protected]
Celso A. Saibel Santos (Federal University of Espirito Santo) Almerindo N. Rehem Neto (Federal Institute of Sergipe) Estevao B. Saleme (Federal University of Espirito Santo)