business intelligence como ferramenta de apoio ao processo decisório em uma instituição...
DESCRIPTION
Este trabalho busca estudar a aplicação de softwares de Business Intelligence, Inteligência de negócios, na área da educação bem como sua contribuição para a melhoria dos processos decisórios dos gestores educacionais.BACHARELADO EM SISTEMAS DE INFORMAÇÃOMUNIR DE SÁ MUSSA SAULO CHAVES DE SOUZACampos dos Goytacazes 2012TRANSCRIPT
BACHARELADO EM SISTEMAS DE INFORMAÇÃO
MUNIR DE SÁ MUSSA SAULO CHAVES DE SOUZA
BUSINESS INTELLIGENCE COMO FERRAMENTA DE APOIO AO PROCESSO DECISÓRIO EM UMA INSTITUIÇÃO EDUCACIONAL
Campos dos Goytacazes 2012
MUNIR DE SÁ MUSSA SAULO CHAVES DE SOUZA
BUSINESS INTELLIGENCE COMO FERRAMENTA DE APOIO AO PROCESSO DECISÓRIO EM UMA INSTITUIÇÃO EDUCACIONAL
Trabalho de conclusão de curso apresentado ao Instituto Federal Fluminense, Campus Campos-Centro como requisito parcial para a conclusão do curso de Bacharelado em Sistemas de Informação. Orientador: Prof. Me. Eduardo Francisco da Silva Freire
Campos dos Goytacazes 2012
M989b Mussa, Munir de Sá. Business intelligence como ferramenta de apoio ao processo decisório em uma instituição educacional / Munir de Sá Mussa, Saulo Chaves de Souza – Campos dos Goytacazes (RJ) : [s.n.], 2012. 83 f. : il. Orientador: Eduardo Francisco da Silva Freire. Monografia (Bacharelado em Sistema de Informação). Instituto Federal de Educação, Ciência e Tecnologia Fluminense. Campus Campos-Centro. Campos dos Goytacazes, RJ, 2012. Bibliografia: f. 73 - 75. 1. Gerenciamento de recursos de informação. 2. Sistema de informação. 3. Business Intelligence (Programa de computador). I. Souza, Saulo Chaves de. II. Freire, Eduardo Francisco da Silva, orient. III. Título. CDD – 658.472
MUNIR DE SÁ MUSSA SAULO CHAVES DE SOUZA
BUSINESS INTELLIGENCE COMO FERRAMENTA DE APOIO AO PROCESSO DECISÓRIO EM UMA INSTITUIÇÃO EDUCACIONAL
Trabalho de conclusão de curso apresentado ao Instituto Federal Fluminense, Campus Campos-Centro como requisito parcial para a conclusão do curso de Bacharelado em Sistemas de Informação.
Aprovado em 22 de novembro de 2012 Banca Avaliadora: ----------------------------------------------------------------------------------------------------------------
Profº Eduardo Francisco da Silva Freire Mestre em Economia Empresarial/UCAM
Instituto Federal Fluminense, Campus Campos-Centro
---------------------------------------------------------------------------------------------------------------- Profº Breno Fabrício Terra Azevedo
Doutor em Informática na Educação/UFRGS Instituto Federal Fluminense, Campus Campos-Centro
---------------------------------------------------------------------------------------------------------------- Profº Mauricio José Viana Amorim
Doutor em Informática na Educação/UFRGS Instituto Federal Fluminense, Campus Campos-Centro
AGRADECIMENTOS
Agradeço primeiramente a Deus por permitir a realização deste trabalho da melhor forma possível e por guiar meus passos e todos os caminhos da minha vida. Aos meus pais Rose e Jackson pela educação e os ensinamentos tão importantes que baseiam as minhas atitudes e decisões. Aos meus irmãos Felipe, Mateus e Jasmyne pelo apoio e conselhos primordiais para o meu sucesso. Aos amigos que sempre apoiaram e suportaram nos momentos de indecisão. À Renata que sempre esteve ao meu lado passando tranqüilidade e paciência quando precisei. E a todos que, direta ou indiretamente, torceram ou colaboraram para a realização deste trabalho que encerra uma importante etapa na minha vida.
Munir de Sá Mussa
Agradeço aos meus pais Sérgio e Silvia, aos meus amigos e a todas as pessoas que passaram por minha vida e deixaram alguma contribuição.
Saulo Chaves de Souza
RESUMO
Este trabalho busca estudar a aplicação de softwares de Business Intelligence, Inteligência de negócios, na área da educação bem como sua contribuição para a melhoria dos processos decisórios dos gestores educacionais. Para isso foi criado um modelo multidimensional e realizada a inserção de dados acadêmicos do Instituto Federal Fluminense em um Data Warehouse. Através da suíte Pentaho foi realizada a exposição dos dados em forma multidimensional, que o software proporciona. Assim foram reunidos gestores do Instituto a fim de avaliar se as informações expostas seriam úteis para auxiliar a tomada de decisões no ambiente de uma instituição de ensino. Foi realizada, a partir disso, uma pesquisa de avaliação, segundo as normas da ISO/IEC 9126-1, com estes gestores educacionais onde foi constatada a capacidade do software em prover informações aplicadas que permitem a análise dos fatores críticos e fornece informações que possibilitam melhorias no processo de tomada de decisões da Instituição.
Palavras-chave: Business Intelligence. Pentaho. Data Warehouse. ISO/IEC 9126-1.
ABSTRACT This work studies the application of Business Intelligence softwares in education area as well as your contribution to the improvement of decision-making processes of educational managers. For this job was created a multidimensional model and performed data entry scholars of the Instituto Federal Fluminense in a Data Warehouse. Using the Pentaho suite it was performed to expose data in a multidimensional form, that the software provides. So were brought together managers of the Institute in order to assess whether the exposed information could be useful to aid decision-making in the environment of an educational institution. Based on this a survey evaluation was performed, according to the ISO / IEC 9126-1, with these educational administrators where it was found the software's ability to provide applied information that allow the analysis of the critical factors and provides information that enables improvements in decision-making of the institution.
Palavras-chave: Business Intelligence. Pentaho. Data Warehouse. ISO/IEC 9126-1.
LISTA DE FIGURAS
Figura 1. Fases que compõem o presente trabalho. Fonte: Elaboração própria. ......................14
Figura 2. Visão integrada do papel dos Sistemas de Informações (LAUDON; LAUDON, 2010).........................................................................................................................................23
Figura 3. Exemplo da estrutura do modelo estrela (MORALES, 2012). .................................27
Figura 4. Visão geral de um Data Mart (COSTA; ANCIÃES, 2001). ....................................28
Figura 5. Visão simplificada de uma arquitetura de Data Warehouse (COSTA; ANCIÃES, 2001).........................................................................................................................................29
Figura 6. Ambiente de BI (MORALES, 2012).........................................................................30
Figura 7. Exemplo de modelo de cubo de dados (ANZANELLO, 2006. Adaptado). .............33
Figura 8. Sistemas de Suporte a Decisão (MORALES, 2012).................................................36
Figura 9. Estrutura da ISO/IEC 9126 (Associação Brasileira de Normas Técnicas, NBR ISO/IEC9126, 2003).................................................................................................................40
Figura 10. Apresentação da tela do software SQL Manager for SQL Server 2008 com tabelas do banco de dados. Fonte: Elaboração própria.........................................................................45
Figura 11. Dimensões do Fato Aluno. Fonte: Elaboração própria. ..........................................47
Figura 12. Dimensões do Fato Professor. Fonte: Elaboração própria. .....................................47
Figura 13. Extração dos campos da tabela Cursos no banco de dados origem. Fonte: Elaboração própria....................................................................................................................49
Figura 14. Configuração da seleção dos campos no ícone “Select values” da transformação di_curso. Fonte: Elaboração própria.........................................................................................50
Figura 15. Configuração da remoção de campos no ícone “Select values” da transformação di_curso. Fonte: Elaboração própria.........................................................................................51
Figura 16. Configuração do banco e da tabela destino no ícone “Table output” da tranformação di_curso. Fonte: Elaboração própria. .................................................................52
Figura 17. Diagrama da transformação realizada na tabela di_curso. Fonte: Elaboração própria.......................................................................................................................................52
Figura 18. Diagrama da transformação realizada na tabela ft_professores. Fonte: Elaboração própria.......................................................................................................................................53
Figura 19. Consulta SQL realizada no ícone “Table input” da transformação ft_professores. Fonte: Elaboração própria. .......................................................................................................53
Figura 20. Configurações do ícone “Database lookup” na transformação ft_professores. Fonte: Elaboração própria. .......................................................................................................54
Figura 21. Configurações do ícone “Insert/Update” da transformação ft_professores. Fonte: Elaboração própria....................................................................................................................55
Figura 22. Tela de apresentação do Pentaho User Console. Fonte: Elaboração própria. ........56
Figura 23. Consulta SQL para a configuração do fato alunos. Fonte: Elaboração própria......56
Figura 24. Configuração do cubo do fato Alunos. Fonte: Elaboração própria.........................57
Figura 25. Cubo Alunos estendendo as dimensões alunos e campus. Fonte: Elaboração própria.......................................................................................................................................58
Figura 26. Tela do Cubo Alunos, com configuração onde usuário pode alterar a ordem das colunas. Fonte: Elaboração própria. .........................................................................................59
Figura 27. Tela de um relatório em pdf, onde é permitido ao usuário salvá-lo. Fonte: Elaboração própria....................................................................................................................60
Figura 28. Apresentação do resultado final da avaliação. Fonte: Elaboração própria. ............63
Figura 29. Classificação de prioridade do critério “A presença de ajuda (help), indicando o que cada operação significa”. Fonte: Elaboração própria. .......................................................64
Figura 30. Classificação de prioridade do critério “Capacidade de continuar a operação em caso de erros ou falhas no sistema”. Fonte: Elaboração própria. .............................................64
Figura 31. Classificação de prioridade do critério “Fornecimento de um dicionário contendo os termos utilizados pelo sistema”. Fonte: Elaboração própria................................................65
Figura 32. Resultado da classificação de prioridade para todos os critérios. Fonte: Elaboração própria.......................................................................................................................................65
Figura 33. Classificação de qualidade do critério “Fornecimento de um dicionário contendo os termos utilizados pelo sistema”. Fonte: Elaboração própria. ...................................................66
Figura 34. Classificação de qualidade do critério “A presença de ajuda (help), indicando o que cada operação significa”. Fonte: Elaboração própria. ..............................................................67
Figura 35. Classificação de qualidade do critério “Capacidade de não perder os dados em caso de erros ou falhas no sistema”. Fonte: Elaboração própria. .....................................................67
Figura 36. Classificação de qualidade do critério “Capacidade de continuar a operação em caso de erros ou falhas no sistema”. Fonte: Elaboração própria. .............................................68
Figura 37. Classificação de qualidade do critério “Tempo de resposta às operações realizadas”. Fonte: Elaboração própria.....................................................................................68
Figura 38. Resultado da classificação de qualidade do produto para todos os critérios. Fonte: Elaboração própria....................................................................................................................69
Figura 39. Tabela Cursos do banco de dados do instituto. Fonte: Elaboração própria. ...........80
Figura 40. Tabela Cursos do banco de dados do instituto. Fonte: Elaboração própria ............80
Figura 41. Tabela Matriculas do banco de dados do instituto. Fonte: Elaboração própria ......81
Figura 42. Tabela Pautas do banco de dados do instituto. Fonte: Elaboração própria.............82
Figura 43. Tabela Professores do banco de dados do instituto. Fonte: Elaboração própria.....82
Figura 44. Cubo Alunos estendendo as dimensões ano letivo, campus e curso com a medida quantidade de alunos. Fonte: Elaboração própria.....................................................................83
Figura 45. Cubo Professores estendendo as dimensões campus, pauta e ano letivo com a medida carga horária. Fonte: Elaboração própria.....................................................................83
LISTA DE QUADROS
Quadro 1. Exemplo de Níveis e membros (ANZANELLO, 2006). .........................................32
Quadro 2. Características marcantes entre modelos OLTP e OLAP (ANZANELLO, 2006. Adaptado). ................................................................................................................................34
Quadro 3. Características da Qualidade de Software segundo a ISO/IEC 9126-1 (TSUKUMO, 1997 apud GLADCHEFF; ZUFFI; SILVA, 2001). .................................................................39
SUMÁRIO
1 INTRODUÇÃO.....................................................................................................................11 1.1 Objetivos e Justificativa..................................................................................................12 1.2 Estrutura do trabalho.......................................................................................................12
2 METODOLOGIA..................................................................................................................14 2.1 Riscos e dificuldades ......................................................................................................14 2.2 Estrutura da pesquisa ......................................................................................................15 2.3 Estudo de caso ................................................................................................................15 2.4 Avaliação e Análise ........................................................................................................16
3 REFERENCIAL TEÓRICO..................................................................................................17 3.1 Trabalhos relacionados ...................................................................................................17 3.2 Gestão do conhecimento.................................................................................................20 3.3 Tomada de decisões ........................................................................................................20
3.3.1 Tomada de decisões nas Instituições de ensino .......................................................21 3.4 Sistemas de Informação ..................................................................................................22 3.5 Sistemas de Informação Gerenciais ................................................................................23 3.6 Business Intelligence.......................................................................................................24
3.6.1 Softwares Business Intelligence...............................................................................25 3.7 Data Warehouse (DW)....................................................................................................26
3.7.1 Data Mart (DM).......................................................................................................27 3.7.2 Processo de Inserção de dados no Data Warehouse................................................28
3.8 Data mining....................................................................................................................30 3.9 Ferramenta OLAP (OnLine Analytical Processing).......................................................31
3.9.1 Arquiteturas..............................................................................................................33 3.9.2 Diferenças entre OLTP e OLAP ..............................................................................34
3.10 Sistemas de Suporte a Decisão .....................................................................................35 3.11 Software livre................................................................................................................36 3.12 Suíte Pentaho ................................................................................................................37 3.13 Qualidade de software..................................................................................................38 3.14 ISO/IEC 9126-1 ............................................................................................................39
3.14.1 Características ........................................................................................................39 3.14.2 Subcaracterísticas ...................................................................................................40
4 ESTUDO DE CASO .............................................................................................................41 4.1 Instituto Federal Fluminense (IFF) .................................................................................41
4.1.1 Tomada de decisões no Instituto ..............................................................................42 4.2 A escolha da ferramenta..................................................................................................43 4.3 Engenharia reversa..........................................................................................................43 4.4 Definição do Cubo ..........................................................................................................45 4.5 Extração, Transformação e Carga (Extract, Transform and Load - ETL)......................47
4.5.1 Extração....................................................................................................................48 4.5.2 Transformação..........................................................................................................49 4.5.3 Carga ........................................................................................................................51 4.5.4 Tabela fato................................................................................................................52
4.6 Pentaho User Console....................................................................................................55 4.7 Avaliação de acordo com a ISO/IEC 9126-1..................................................................60
4.7.1 Método de Avaliação ...............................................................................................60 4.7.2 Resultados ................................................................................................................63
5 CONCLUSÕES E SUGESTÕES DE TRABALHOS FUTUROS .......................................71
REFERÊNCIAS .......................................................................................................................73
ANEXOS..................................................................................................................................76 ANEXO A: QUESTIONÁRIO DE AVALIAÇÃO DO SOFTWARE PENTAHO SEGUNDO A PRIORIDADE NA ÁREA ACADÊMICA ..................................................76 ANEXO B: QUESTIONÁRIO DE AVALIAÇÃO DO SOFTWARE PENTAHO SEGUNDO A QUALIDADE DO SOFTWARE..................................................................77 ANEXO C: TERMO DE COMPROMISSO ........................................................................78 ANEXO D: APRESENTAÇÃO DAS TABELAS DO BANCO DE DADOS DA INSTITUIÇÃO UTILIZADAS NO ESTUDO DE CASO...................................................80 ANEXO E: APRESENTAÇÃO DE VISÕES NO SOFTWARE PENTAHO.....................83
1 INTRODUÇÃO
A informação é, indiscutivelmente, a base para a construção do conhecimento. No
ambiente corporativo, os empresários são responsáveis por conduzir os negócios, e, para isso,
necessitam das informações da organização, que serão imprescindíveis no processo de tomada
de decisões. Com base em suas experiências profissionais e das informações operacionais da
organização, o administrador tomará as decisões que definirão os rumos a serem seguidos
pela instituição. Os sistemas de Business Intelligence - BI podem ser definidos como
ferramentas para auxiliar e amplificar os resultados obtidos nesse processo de tomada de
decisões e torná-lo mais preciso e confiável, baseado no conhecimento gerado pelos dados da
empresa do que valores intuitivos e baseados em vivências pessoais. Este processo também
está presente nas instituições de ensino e definem os rumos educacionais que a instituição
deve seguir. Na maioria das vezes, existe nessas Instituições, o mesmo problema das
organizações, as decisões são tomadas com base em dados vagos e não no conhecimento
gerado por eles (CAVALCANTI; FELL; DORNELAS, 2005).
Para isso, os sistemas de BI tornam-se importante ferramenta capaz de aprimorar este
processo, pois são capazes de transformar dados e informações em conhecimento, ou seja,
organizá-los de modo que as decisões sejam facilitadas para seus administradores.
Ao analisar dados em uma instituição de ensino, a fim de tomar as decisões corretas
para o melhor desenvolvimento da mesma é necessário verificar diversos fatores que possam
influenciar positiva ou negativamente no futuro. Esses dados, em sua maioria, ficam
distribuídos em sistemas e/ou locais diferentes e as instituições não fazem uso de aplicações
que possam unificá-los e proporcionar uma visão global desse processo, tornando-o mais
rápido e preciso.
A utilização de sistemas de Business Intelligence, é mais comum em ambientes
corporativos. A praticidade no seu manuseio e possibilidade de cruzamento de dados
primordiais no auxílio ao processo decisório estão entre algumas de suas vantagens (LEME
FILHO, 2007).
Atualmente não existe uma ferramenta que auxilie ou facilite o processo de tomada de
decisões no Instituto Federal Fluminense (IFF). Em função disto, a utilização de um software
que proporcione uma visão global dos dados e de forma prática e contundente enriqueceria
ainda mais este processo.
12
Este trabalho pretende verificar a aplicabilidade de uma ferramenta de Business
Intelligence, desenvolvida para auxílio no ambiente empresarial, na gestão de uma instituição
de ensino.
Pretende-se, ainda, analisar se a utilização do software de BI pode ser aplicada nesta
área, gerando informações úteis e auxiliando gestores educacionais no processo decisório do
ambiente acadêmico.
1.1 Objetivos e Justificativa
O presente trabalho tem o objetivo que verificar a viabilidade da implantação de uma
ferramenta de inteligência de negócios, baseada nos dados existentes, analisar a utilização
desta ferramenta pela Instituição e pesquisar sobre possíveis vantagens que a mesma
proporcionaria na área educacional.
Esses dados serão obtidos a partir da suíte Pentaho, que permite a análise, extração,
mineração e transformação das informações de um grande volume de dados. Como a área da
Educação demanda diversos fatores para que as decisões sejam tomadas, a utilização do
Pentaho mostra-se viável, pois ele oferece uma gama de informações e possibilidades que
pontuam e embasam o processo de tomada de decisões do educador.
A utilização da ferramenta justifica-se pela necessidade do IFF ter uma forma eficiente
de obter uma visão concreta, confiável e unificada referente aos dados dos cursos oferecidos
pela instituição. Desse modo, auxiliando os educadores e administradores nesse processo.
1.2 Estrutura do trabalho
Este trabalho está estruturado em cinco capítulos. Este primeiro capítulo apresenta a
introdução ao tema abordado, as justificativas e os objetivos. No segundo capítulo está
descrita a metodologia utilizada para a realização deste trabalho, além de informações sobre a
Instituição onde foi realizado o estudo.
O terceiro capítulo é composto pela revisão da literatura, onde estão referenciados
estudos importantes para introduzir os conceitos abordados durante todo o presente
13
documento, tais como: outros trabalhos relacionados ao tema, gestão do conhecimento,
processo de tomada de decisões e sistemas de informação, entre outros. Assim como estão
descritos os conceitos de Business Intelligence, que fundamentam este trabalho, além da
apresentação das aplicações que cercam ferramentas desenvolvidas para inteligência dos
negócios e informações sobre o software utilizado na realização do estudo de caso. São
abordados, ainda, conceitos de qualidade de software e uma descrição da ISO/IEC 9126-1,
tratando características e subcaracterísticas dos critérios que foram instrumento de
fundamentação para a realização da avaliação do software apresentado.
No quarto capítulo está descrito o estudo de caso realizado no Instituto Federal
Fluminense com os detalhes das etapas desenvolvidas, bem como as técnicas utilizadas para
realizar o estudo proposto. Trata também da forma como a avaliação foi realizada, por meio
de questionários eletrônicos respondidos por gestores do IFF e da apresentação dos resultados
desta avaliação.
O quinto e último capítulo trata das considerações finais, conclusões e propostas de
continuação deste trabalho.
Constam, ainda, dois anexos contendo os questionários propostos para a avaliação da
ferramenta apresentada. Um anexo com o termo de compromisso firmado com a instituição
para o acesso aos dados utilizados no estudo de caso. Um anexo com as tabelas do banco de
dados do instituto que foram utilizadas no estudo de caso. E um anexo com telas do software
apresentando as visões multidimensionais criadas para este trabalho.
2 METODOLOGIA
Segundo Gil (2010), a pesquisa realizada no presente trabalho pode ser classificada
como aplicada segundo sua finalidade, pois é voltada a aquisição de conhecimentos com
vistas à aplicação em uma situação específica. No que diz respeito a seus objetivos gerais,
ainda segundo Gil (2010) classifica-se como exploratória, uma vez que têm como propósito
proporcionar maior familiaridade com o problema, a fim de torná-lo mais explícito e construir
hipóteses.
A pesquisa realizada no presente trabalho foi desenvolvida em três grandes fases: a
primeira foi a realização de pesquisa bibliográfica sobre o assunto a ser aplicado; a segunda
foi a aplicação dos conceitos adquiridos na etapa anterior para a realização do estudo de caso
e por fim uma avaliação da aplicação por pessoas envolvidas no tema em questão segundo
uma norma internacional definida para avaliações, e a apresentação dos resultados obtidos
nesta avaliação. Na figura 1 estão apresentas as fases que compõem este trabalho e serão
descritas neste capítulo.
Figura 1. Fases que compõem o presente trabalho. Fonte: Elaboração própria.
2.1 Riscos e dificuldades
O desenvolvimento do trabalho possui alguns fatores que podem dificultar o seu
andamento correto. A utilização da suíte Pentaho pode ser prejudicada pela quantidade não
muito grande de documentação fornecida em relação a sua implementação para fins de
aplicação na gestão educacional, uma vez que não foram encontrados muitos trabalhos
utilizando a ferramenta para este fim. Porém, através da comunidade mantenedora da
aplicação podem ser solucionadas dúvidas que surgirem quanto ao seu uso. Outra dificuldade
enfrentada é em relação à obtenção dos dados para a realização do estudo junto a Instituição,
uma vez que os critérios de Segurança da Informação restringem o acesso a dados
confidenciais são necessários acordos e autorizações para o devido acesso e manipulação dos
15
mesmos. Em função disto foi assinado um termo de compromisso entre os envolvidos para
garantir o sigilo das informações confidenciais e resguardar as partes quanto aos prejuízos que
o incorreto uso destas poderia causar. No anexo C está apresentado o termo de compromisso.
2.2 Estrutura da pesquisa
A pesquisa bibliográfica realizada neste trabalho buscou identificar e expandir os
conhecimentos imprescindíveis para a realização do estudo de caso. Inicialmente, o
entendimento das etapas de transformação de dados em informação e da informação em
conhecimento nos diferentes níveis de uma organização e de uma instituição de ensino. O
dado transformado em informação para ser analisado e a informação, transformada em
conhecimento é o grande valor da atualidade e de grande importância nos processos de uma
organização, sobretudo na tomada de decisões. Com base nisso, para gerir estas informações e
torná-las conhecimento é de fundamental importância a utilização de um software que facilite
os gestores neste processo. Neste contexto estão inseridos os softwares de Informações
gerenciais e os softwares de suporte a decisão, que, respectivamente, reúnem dados em
informações e oferece o suporte necessário para as tomadas de decisão necessárias, e inserem
neste contexto o Data Warehouse1, tornando as informações sempre disponíveis para os
gestores realizarem as análises desejadas.
Ainda com a finalidade de auxiliar e amplificar o processo decisório surge o conceito
de Business Intelligence que tem como principal objetivo disponibilizar informações da
maneira correta, principalmente no tempo certo para que a organização ou instituição de
ensino possa tomar as melhores decisões de maneira mais rápida e confiável.
2.3 Estudo de caso
Foi realizada, a mineração e engenharia reversa da base de dados acadêmicos
disponibilizados após assinatura de termo de responsabilidade. Desta base de dados
1 Conceito de banco de dados ordenado por assunto, integrado e organizado em dados históricos.
16
operacional foram extraídas as informações que passaram a compor a nova base de dados nos
padrões de data warehouse. Para realização da tarefa de mineração dos dados, houve a
necessidade de um estudo aprofundado destes padrões para aplicação no caso em análise, bem
como da constituição estrutural da base de dados utilizada para a operacionalização das
matrículas, enturmações, lançamentos de diários com notas e frequências dos alunos e todas
as outras atividades típicas do setor de registro acadêmico. Ainda como atividades desta
segunda etapa foram realizados os processos de criação das visões dos dados extraídos, bem
como as configurações do software de Business Intelligence.
2.4 Avaliação e Análise
A fim de realizar uma análise aprimorada do software e avaliar a sua utilização em um
ambiente diferenciado ao que o mesmo se destina, foi realizada uma oficina de utilização do
sistema por usuários gestores de ensino em diferentes níveis hierárquicos, em seguida, foi
aplicado um questionário eletrônico a estes usuários do Instituto Federal Fluminense para que
os mesmos apresentassem seu parecer quanto à utilidade e qualidade da ferramenta. A
avaliação por parte desses usuários é um ponto fundamental para a comprovação da utilidade
da ferramenta no ambiente educacional, uma vez que a resposta dos mesmos tem grande
credibilidade no que diz respeito ao processo de tomada de decisões de uma instituição de
ensino. Eles são os responsáveis pelas análises e decisões realizadas no dia-a-dia da
instituição e são os profissionais mais indicados para avaliar se a ferramenta proposta
apresenta as respostas e fornece o suporte necessário para o auxílio às tomadas de decisões da
área acadêmica. Da avaliação coletada foram extraídos indicadores de qualidade que serão
abordados no capítulo 4.
Neste capítulo foi abordada toda a metodologia desenvolvida neste trabalho,
destacando o referencial teórico pesquisado, o estudo de caso desenvolvido, bem como a
avaliação e os resultados obtidos através de gestores do Instituto.
3 REFERENCIAL TEÓRICO
Diariamente, dados sobre os mais variados aspectos dentro de uma organização são
gerados e armazenados. Esses dados passam a fazer parte dos recursos de informação da
mesma e serão fundamentais para análises e avaliações dos gerentes e gestores para o auxílio
nas tomadas de decisões (CAVALCANTI; FELL; DORNELAS, 2005).
A informação representa, então, um fator primordial para o dia-a-dia das empresas e
instituições de ensino, uma vez que, a partir dela, constituem o conhecimento. Este, que é a
base para a realização das avaliações e decisões dos gestores a fim de decidir os rumos dessas
organizações.
3.1 Trabalhos relacionados
Para embasar a realização da proposta, foram pesquisadas utilizações de softwares de
inteligência dos negócios em áreas diversas. Entre aplicações encontradas destacaram-se: A
utilização de Business Intelligence em escolas públicas do Paraná, em apoio à controladoria e
no Censo das Instituições de Ensino Superior.
Em Montaño et al. (2008) foi implementado um software de BI com um intuito de
prover informações estatísticas e auxiliar os agentes de ensino no acompanhamento dos
computadores a fim de gerir com maior precisão os hardwares e softwares do Paraná Digital,
um projeto desenvolvido nas 2100 escolas públicas do estado que visa disponibilizar para as
mesmas laboratórios de informática. No estudo foi analisado o provimento das informações
que são públicas e estão disponíveis no sistema online. Foi possível verificar a importância e
as vantagens que a ferramenta de BI pode proporcionar. Neste caso, por meio do software os
agentes de ensino monitoram as máquinas dos laboratórios com informações sempre
atualizadas e precisas, facilitando a verificação de possíveis problemas e a rápida intervenção.
Montaño et al. (2008) apresenta uma abordagem interessante na utilização de BI. Ao
mesmo tempo em que a arquitetura do projeto proporciona possibilidade de atualizações do
sistema operacional dos computadores dos laboratórios, oferece relatórios com informações
sobre gasto de memória, tempo de uso das máquinas e utilização da rede por meio de
ferramentas de BI. Apesar de não descrever com detalhes a aplicação, o projeto também faz
18
uso do Pentaho para a geração dos relatórios e gráficos, utilizando-se do modelo dimensional2
de banco de dados, presente em aplicações Business Intelligence.
Em Reginato e Nascimento (2007) o BI foi utilizado como instrumento de apoio ao
setor de controladoria de uma empresa. No estudo foram analisados dados datados de agosto
de 2003 a dezembro de 2005, abrangendo assim tanto o período anterior ao uso do BI quanto
o período de plena utilização do recurso, passando pela fase de transição. Por meio da análise
desses dados e de entrevistas com membros da empresa foi constatado que as ferramentas de
BI puderam auxiliar a tomada de decisão por parte do setor de controladoria, gerando
informações relevantes de forma rápida e dinâmica. Isso melhorou os resultados nas áreas
organizacionais, bem como na empresa como um todo.
O trabalho mostra os benefícios que uma empresa pode alcançar ao investir na
qualidade, velocidade e confiabilidade de suas informações e que decisões tomadas com base
em tais informações tendem a serem mais eficientes que decisões instintivas. O uso do BI
resultou na melhora do gerenciamento das informações na empresa, o que possibilitou uma
reestruturação interna na organização, que foi realizada com base nas informações geradas no
processo. Essa reestruturação mostrou-se crucial para a melhoria dos resultados de mercado
da companhia.
Em Purificação et al. (2011) é apresentada uma proposta do uso do BI para agilizar as
etapas de coleta e validação dos dados utilizados no Censo das Instituições de Ensino
Superior. O censo é realizado anualmente e o estudo indica que atualmente o tempo entre a
disponibilização dos indicadores obtidos ao final do censo e a próxima coleta de dados não
permite que as instituições de ensino superior procedam com as intervenções necessárias para
a melhoria desses indicadores.
Purificação et al. (2011) propõe o uso do BI como forma de facilitar e agilizar a coleta
dos dados, minimizando o tempo entre a coleta e a divulgação dos resultados, permitindo um
monitoramento constante dos indicadores por parte das instituições de nível superior e,
consequentemente, a melhoria do ensino prestado pelas mesmas. O trabalho apresenta uma
proposta, disponibilizando a oportunidade para a sua aplicação em estudos futuros. A
proposta é baseada no uso de softwares livres como o Pentaho e o banco de dados
PostgreSQL3, mas sua aplicação poderia ser realizada em qualquer ferramenta do gênero, pois
2 Consiste de consultas que fornecem dados a respeito de medidas de desempenho, decompostas por uma ou mais dimensões dessas medidas. Podendo também serem filtradas pela dimensão e/ou pelo valor da medida. 3 É um projeto de Sistema Gerenciador de Banco de Dados, de código fonte aberto, que foi iniciado em 1986, na Universidade de Berkeley, na Califórnia.
19
a principal ideia difundida é a arquitetura da solução apresentada. É, portanto, uma aplicação
possível do BI como ferramenta de apoio a gestão e avaliação educacional, apontando que ele
não se trata de uma solução exclusiva para o setor empresarial.
Lima e Boscarioli (2012) apresentam um estudo de caso utilizando uma ferramenta de
Business Intelligence a fim de aprimorar o suporte a decisão dos administradores de empresas
do ramo de agronegócios. O estudo foi realizado com uma empresa de grande porte do Rio
Grande do Sul. Foi feito um questionário para analisar os indicadores de desempenho que
norteariam o estudo e seriam implementados no sistema de inteligência de negócios.
Posteriormente, foram documentadas as medidas já utilizadas para, então, realizar a
implementação de um Data Mart voltado para os indicadores de desempenho anteriormente
colhidos, configurar e desenvolver um sistema online de visualização das informações dos
indicadores definidos. Por fim, foi realizado um comparativo entre os sistemas anteriormente
adotado e o novo, com a implantação do BI. Como resultados, foram encontrados muitos
pontos positivos, como a diminuição do tempo de resposta para a geração de relatórios
gerenciais, a confiabilidade das informações, pois antes as mesmas estavam sujeitas a um
número maior de erros devido ao cruzamento de dados de planilhas e relatórios do sistema de
gestão ser feito manualmente. Além disso, pôde-se perceber um maior número de
informações encontradas e a facilidade na busca dessas informações por períodos de tempo
diferentes.
O trabalho de Lima e Boscarioli (2012) é interessante por destacar bem as fases de
todo o processo do estudo de caso apresentado. Desde a coleta de informações antes da
implantação, para definir os indicadores e avaliar a situação atual do processo, passando pela
criação do Data Mart, configuração da ferramenta OLAP (OnLine Analytical Processing),
implementação do sistema de visualização dos indicadores online, e concluindo com a
comparação dos modelos utilizados. A importância e os benefícios da utilização de um
sistema de Business Intelligence são notados com clareza, pois o autor destaca os modelos
utilizados antes e depois da implementação da ferramenta. Fatores como confiabilidade e
número de informações disponíveis, tempo de resposta do sistema, são primordiais para o dia-
a-dia de uma grande organização e a utilização do sistema torna o processo de tomada de
decisões mais enriquecido. Além disso, foi possível observar que problemas de consistência e
qualidade das informações foram encontrados durante o processo e, puderam ser corrigidos
com a implementação da ferramenta.
20
3.2 Gestão do conhecimento
Segundo Cardoso e Machado (2008), conhecimento é uma combinação de instintos,
idéias, informações, regras e procedimentos que guiam ações e decisões. A gestão do
conhecimento é a área que estuda o modo como as organizações entendem o que elas
conhecem, o que elas necessitam conhecer e como elas podem tirar o máximo proveito do
conhecimento.
A Gestão do Conhecimento possui o objetivo de controlar, facilitar o acesso e manter
um gerenciamento integrado do conhecimento. Onde o melhor aproveitamento do
conhecimento já existente seja de todos os colaboradores que trocarão informações
estratégicas do ambiente organizacional aumentando assim o aproveitamento do
conhecimento. Os benefícios das organizações adotarem uma estratégia de Gestão de
Conhecimento são numerosos, pois oferece maior agilidade e capacidade de resposta
(SANTOS et al., 2001).
3.3 Tomada de decisões
Segundo Penna e Junior (2012), o ambiente de negócios atual, altamente competitivo e
cada vez mais globalizado, exige das organizações uma busca por diferencial e vantagens
competitivas no mercado. Neste contexto, informação e, sobretudo, o conhecimento
habilitado pelo bom uso da informação, tem papel preponderante na tomada de decisão.
Castro, Gonçalves e Cazarini (2004) acrescentam que para as organizações
permanecerem no mercado e conseguirem adquirir essa vantagem competitiva é necessário,
não só dar a devida importância, mas utilizarem melhor as informações geradas internamente
e avaliar de maneira perspicaz as informações do ambiente externo. Ele enfatiza que a
administração da empresa não pode ser feita apenas por um indicador de desempenho e
através de dados estáticos. O acesso e a interpretação de dados históricos tornam-se
imprescindíveis nesta batalha mercadológica.
Leme Filho (2007) então conclui que:
21
(...) informação e conhecimento, são as matérias-primas que alimentam a equação da velocidade e inovação: informações sobre o mercado, sobre os concorrentes, sobre patentes, sobre a própria empresa, que produzem conhecimento sobre tendências, previsões mais assertivas, estudos de sazonalidade, participação de mercado, comparação de preços, entre outros (LEME FILHO, 2007).
3.3.1 Tomada de decisões nas Instituições de ensino
Inseridas no mesmo nível das organizações, estão as Instituições de ensino, que
também necessitam tomar decisões que favoreçam a obtenção de melhores resultados e a
adoção de práticas mais eficazes de gestão. Para a execução de uma tomada de decisão eficaz
é preciso que sejam disponibilizadas informações adequadas e oportunas que possuam total
relevância para o processo. Portanto, independentemente do nível organizacional, o uso
inteligente da informação é fundamental para a tomada de decisão qualificada, visando
formular estratégias e reforçar a capacidade de competir em um ambiente de constantes
mudanças (CASARTELLI et al., 2010).
Segundo Clemes (2001) em qualquer tipo de organização, inclusive instituições de
ensino, existe um sistema de decisões, com a finalidade de escolher e decidir, dentre as
alternativas possíveis, aquelas mais racionais para solução dos problemas com os quais se
defrontam. Ele acrescenta que cada universidade determina o seu próprio modelo de
avaliação, muitas vezes, influenciada por vários fatores ambientais, internos e externos,
adaptando-se àquele em que a sua realidade mais se enquadra. Dessa maneira, não existem
receitas que apontem para forma de avaliação que seja mais eficiente que a outra.
Clemes (2001) reitera que ter acesso às informações com rapidez e segurança, a no
momento e local desejado, deixa de ser um privilégio para se tornar um diferencial
competitivo. As universidades necessitam usar, cada vez mais e melhor, suas próprias
informações. Os administradores universitários têm se deparado com novos desafios, e o uso
correto das informações existentes pode resultar em vantagem competitiva e melhoria no
desempenho da instituição. Não basta aos administradores receberem dezenas de relatórios,
memorandos, gráficos e planilhas, ter acesso a diversos sistemas e bancos de dados. É preciso,
extrair informação clara e precisa dessa avalanche de dados. Muito embora as universidades
possuam características semelhantes a muitas organizações empresariais, como folha de
pagamento, sistemas financeiros e contabilidade, o que naturalmente já acarreta uma
22
necessidade de informações gerenciais, outras atividades são próprias destas instituições
(ensino, pesquisa e extensão) e devem gerar informações para complementar este ambiente.
Neste processo é notada, cada vez mais, a necessidade de softwares que proporcionem
uma forma unificada de visualização dos dados disponíveis para o processo de análise dos
administradores educacionais.
3.4 Sistemas de Informação
A Tecnologia da Informação é, hoje, parte integrante nos negócios e tem fundamental
importância para o crescimento das organizações e a manutenção do dia-a-dia das mesmas.
Esta integração é fundamentada na importância dos Sistemas de informação (SI) em áreas
como atendimento ao cliente, vendas, operação, marketing, entre outras. Essas áreas
dependem muito, ou até mesmo totalmente, dos SI. Esses softwares são os responsáveis por
gerir as informações das empresas.
Sistema de informação é definido tecnicamente segundo Laudon e Laudon (2010):
Um sistema de informação pode ser definido como um conjunto de componentes interrelacionados trabalhando juntos para coletar, recuperar, processar, armazenar e distribuir informação com a finalidade de facilitar o planejamento, o controle, a coordenação, a análise e o processo decisório em empresas e outras organizações (LAUDON; LAUDON, 2010).
Bevilacqua e Bitu (2003) enfatizam, porém, que nenhum sistema sozinho rege todas as
atividades de uma empresa. Na maioria das vezes as empresas têm diferentes tipos de
sistemas de informação para enfocar diferentes níveis de problemas e diferentes funções
dentro da organização. Os sistemas em nível estratégico são responsáveis por auxiliar os
gerentes no planejamento das ações de longo prazo. Os sistemas táticos ajudam os gerentes de
nível médio a supervisionar e coordenar as atividades diárias. Os especialistas e funcionários
de escritório utilizam sistemas de conhecimento para projetar, racionalizar serviços e lidar
com os documentos recorrentes, enquanto os sistemas operacionais tratam das atividades do
dia-a-dia da produção (figura 2).
23
Figura 2. Visão integrada do papel dos Sistemas de Informações (LAUDON; LAUDON, 2010).
3.5 Sistemas de Informação Gerenciais
Os Sistemas de informação gerenciais (SIG) são sistemas desenvolvidos para o mundo
empresarial, com aspectos que integram este meio. Estes sistemas são especificamente
montados para atender os objetivos das organizações, suprir as necessidades e auxiliar à
gestão das empresas, facilitando o manuseio de informações e fortalecendo o processo de
tomada de decisões.
Oliveira (2009) afirma que “Sistema de Informações Gerenciais é o processo de
transformação de dados em informações que são utilizadas na estrutura decisória da empresa,
proporcionando, ainda, a sustentação administrativa para otimizar os resultados esperados”.
Os Sistemas de informação gerenciais tentam proporcionar uma capacitação mais
ampla em sistemas de informação. Os SIG lidam tanto com as questões comportamentais
como técnicas que cercam o desenvolvimento, uso e impacto dos sistemas de informação
adotados por administradores e funcionários em uma empresa. Uma das principais
contribuições dos sistemas de informação para as organizações é a melhoria da tomada de
decisão. Este processo nas empresas limitava-se à diretoria. Atualmente, funcionários de
24
níveis mais baixos são responsáveis por algumas dessas decisões, pois os sistemas de
informação tornam os dados disponíveis para camadas mais elementares da empresa
(LAUDON; LAUDON, 2010).
3.6 Business Intelligence
No mundo tão competitivo do mercado de trabalho, cada vez mais, é necessário que as
organizações procurem formas de alcançar um diferencial e, consequentemente, destacar-se
neste mercado. O Business Intelligence é uma solução cada dia mais explorada,
primordialmente pelas grandes e médias empresas, devido a sua capacidade de unificação dos
dados e por propiciar aos gestores informações confiáveis e contundentes que auxiliam no
processo decisório.
Segundo Bevilacqua e Bitu (2003), o Business Intelligence ou Inteligência
Empresarial tem como principal objetivo disponibilizar informações da maneira correta e no
tempo certo para que a empresa possa tomar as melhores decisões e de maneira mais rápida e
confiável. Ele é um conjunto de ferramentas e aplicativos que possibilitam aos tomadores de
decisão organizar, analisar, distribuir e, assim, agir sobre as informações relevantes ao
negócio da empresa.
Ainda de acordo com Bevilacqua e Bitu (2003) os principais benefícios ao adotar o BI
são:
● Antecipar mudanças no mercado;
● Antecipar ações dos competidores;
● Descobrir novos ou potenciais competidores;
● Aprender com os sucessos e as falhas dos outros;
● Conhecer melhor suas possíveis aquisições ou parceiros;
● Conhecer novas tecnologias, produtos ou processos que tenham impacto no seu
negócio;
● Conhecer sobre política, legislação ou mudanças regulamentais que possam afetar
o seu negócio;
● Entrar em novos negócios;
● Rever suas próprias práticas de negócio;
● Auxiliar na implementação de novas ferramentas gerenciais;
25
De acordo com Reginato e Nascimento (2007) “as ferramentas de BI podem fornecer
uma visão sistêmica do negócio e ajudar na distribuição uniforme dos dados entre os usuários,
sendo seu objetivo principal transformar grandes quantidades para a tomada de decisões”.
Segundo o autor, o ferramental de BI proporciona o cruzamento de dados, visualização das
informações em várias dimensões e a análise dos principais indicadores de desempenho
empresarial. Ou seja, transformando os dados em informações de qualidade.
3.6.1 Softwares Business Intelligence
Atualmente existem diversos softwares capazes de gerir informações de um Banco de
dados para que possam ser utilizadas no processo de tomada de decisões nas organizações. Os
mais difundidos pertencem a grandes empresas de Informática, outros são independentes e há
ainda os softwares livres (FERREIRA et al., 2010). Dentre os mais utilizados encontram-se:
Pentaho Business Analytics, software livre, Business Intelligence Enterprise Edition, da
Oracle, BusinessObjects BI, da SAP, Cognos, da IBM e Business Intelligence Overview, da
Microsoft. Os quatro últimos conjuntos de sistemas são produtos de grandes empresas e
possuem diversas vantagens e desvantagens quando comparados com suítes classificadas
como softwares livres. Diante das opções, a melhor escolha da empresa depende da
abordagem que deseja realizar, ou a que se destina o seu foco principal. Ferreira et al. (2010)
afirma que essas grandes empresas defendem que a utilização de seus softwares, juntamente
com outros produtos oferecidos, possibilitam melhores respostas e, logo, maior satisfação dos
clientes quanto aos resultados esperados. Por outro lado, além de deixar a organização
dependente dos mesmos, o custo de aquisição dos softwares é, em sua maioria, bastante
elevado, o que acaba não satisfazendo o custo-benefício. Nesse contexto, a utilização de
softwares livres são colocadas como uma forma de melhorar esta relação e obter um resultado
satisfatório. (FERREIRA et al., 2010).
A experiência do trabalho de Montaño et al. (2008) nos permite constatar a utilidade e
a importância da utilização de uma boa ferramenta que seja capaz de prover informações
pertinentes para um estudo e, assim, identificar falhas afim de priorizar os pontos críticos do
processo.
Ferreira et al. (2010) reitera que a escolha do software adequado depende do foco que
se deseja obter. E ressalta que o Pentaho corresponde com instituições que possuam restrições
26
financeiras e necessidades de customização tanto funcional dos componentes quanto de
interface, necessidade de utilização de vários sistemas operacionais e acesso remoto à
ferramenta. Pela análise desses itens pode-se concluir que o perfil descrito se adéqua mais a
realidade de uma Instituição de ensino que pode necessitar de customização de componentes
para adequar-se a realidade educacional e o acesso através de diversos sistemas operacionais
facilitando a utilização de todos os envolvidos no processo.
Os softwares de Business Intelligence são compostos por uma gama de outras
ferramentas que, juntas, possibilitam ao seu usuário o suporte e auxílio na tomada das
decisões. Todo o processo de gestão de BI consiste em, basicamente, três etapas, conforme
descrito por Reginato e Nascimento (2007): armazenamento de dados (Data Marts e Data
Warehouse), na análise de informações (OnLine Analytical Processing – OLAP) e na
mineração de dados (Data Mining).
3.7 Data Warehouse (DW)
Nos anos 80, segundo Penna e Junior (2012) foi percebido pelas organizações a
importância e a utilidade dos bancos de dados relacionais e os mesmos foram implantado em
larga escala. Desse modo, diante da necessidade das organizações de um suporte no processo
de tomada de decisões no mercado competitivo, foi inserido nesse contexto os Data
Warehouses. Penna e Junior (2012) afirmam que o primeiro a utilizar o termo Data
Warewouse, ou armazém de dados, foi Bill Inmon, descrevendo-o como “uma coleção de
dados orientada por assunto, integrada, variante e não volátil, que tem por objetivo dar suporte
aos processos de tomada de decisão” (INMON; HACKATHORN, 1997).
O Data Warehouse é, portanto, um repositório único de centralização das informações
de operação das organizações. Forma-se nele uma base histórica, onde podem ser capturadas
informações em um determinado ponto do tempo. Por exemplo, é como pegar uma imagem
de dez anos atrás e outra atual, a fim de compará-las e analisar as mudanças ocorridas.
É importante notar que assim como o ambiente das organizações sempre se modifica
também o DW está em constante mudança. Diante disso, a sua utilização deve ser vista como
contínua, em evolução constante.
Penna e Junior (2012) exploram os Data Warehouses:
27
(...) freqüentemente a primeira geração de implementação de Data Warehouse é destinada a duas finalidades extremas: esforços puramente estratégicos, como o estudo de tendências dos negócios no longo prazo, ou com a finalidade de um departamento individual executar atividades específicas, como segmentação de clientes (PENNA; JUNIOR, 2012).
Para a implementação de um Data warehouse é comumente utilizado o modelo
estrela, que, segundo Morales (2012) consiste na estrutura básica de um modelo de dados
multidimensional. Ele é composto de uma grande entidade central, chamada de tabela de fato
e de um conjunto de entidades menores, denominadas tabelas de dimensões, que são
organizadas ao redor desta entidade central formando uma estrela. Na figura 3 temos um
exemplo do modelo estrela.
Figura 3. Exemplo da estrutura do modelo estrela (MORALES, 2012).
3.7.1 Data Mart (DM)
Existem ainda os Data Marts, que podem ser descritos, segundo Reginato e
Nascimento (2007) como um subconjunto lógico e físico de um Data Warehouse; estruturas
28
moldadas com dados de um DW e relativas a áreas mais específicas da organização. Em
suma, são pequenos Data warehouses, utilizados em áreas específicas, diferente dos DW que
englobam toda a organização.
Segundo Costa e Anciães (2001), o Data Mart é uma base de dados que contém dados
operacionais específicos de uma determinada área ou assunto, e que apoiam a tomada de
decisão de um grupo particular de usuários. Logo, é comum que uma empresa possua Data
Marts específicos para determinados departamentos e setores, como mostra a figura 4.
Figura 4. Visão geral de um Data Mart (COSTA; ANCIÃES, 2001).
3.7.2 Processo de Inserção de dados no Data Warehouse
O processo de inserção dos dados no Data warehouse é uma parte muito importante,
que muitas vezes é subestimada, de acordo com Penna e Junior (2012). Analisando a figura 5,
que representa uma arquitetura tradicional de Data Warehouse, forma-se o ambiente de BI
que, segundo Purificação et al. (2011) temos dois grande componentes, a Arquitetura Técnica
de Povoamento e Arquitetura de Acesso aos Dados, A primeira define como os dados
oriundos das fontes de dados são inseridos no DW através do processo conhecido como
Extração, Transformação e Carga (Extract, Transform and Load - ETL). Neste processo
ocorre a seleção, padronização, limpeza e inserção dos dados no DW.
Ainda segundo Purificação et al. (2011), a Arquitetura de Acesso aos Dados é definida
como a forma como os usuários terão acesso às informações. Nesta etapa, a implementação
dos Data Marts demonstra sua importância, pois os mesmos poderiam ser construídos a níveis
29
departamentais, locais específicos do negócio. Caso seja necessária uma manutenção no Data
Warehouse, cada departamento continuaria a utilizar seus próprios Data Marts, necessitando
apenas de um novo processo de ETL quando o Data Warehouse voltar ao pleno
funcionamento para a atualização da sua base de dados.
Além desses dois componentes, existe uma camada de metadados que unifica toda a
solução de BI. Os metadados devem possibilitar o registro de todas as informacões sobre os
dados como suas origens e os processos de transformação pelos quais passaram. Eles
representam uma visão integrada das bases de dados que fazem parte deste ambiente e são
utilizados para construir, manter, gerenciar e utilizar o Data Warehouse (COSTA; ANCIÃES,
2001).
Figura 5. Visão simplificada de uma arquitetura de Data Warehouse (COSTA; ANCIÃES, 2001).
Morales (2012) detalha, na Figura 6, o ambiente de BI dividindo-o em três etapas
distintas: Back-end (ETL), Data Warehouse e Front-end (acesso do usuário). Segundo o
autor, a primeira parte, a ETL é subdividida na parte de Extração que é responsável pela
coleta dos dados, a Transformação unifica os formatos e faz a “limpeza” dos registros
incompletos e das inconsistências, e os dados tratados são Carregados em um repositório de
dados comum. A segunda parte é estrutura de armazenamento de informações que são os
Data Warehouse e Data Marts. E a terceira parte, o Front-end são as ferramentas de análise
de dados que possibilitam a descoberta de informações explícitas e implícitas úteis para as
30
organizações (ferramentas de processamento analítico (OnLine Analytical Processing -
OLAP, de análise exploratória de dados (AED) e Knoledge Discovery in Databases - KDD).
Figura 6. Ambiente de BI (MORALES, 2012).
3.8 Data mining
Com o avanço das novas tecnologias de informação, a utilização e capacidade de
armazenamento em bancos de dados vêm crescendo. Consequentemente, a atividade de
extrair informações relevantes dessas bases está cada vez mais complexa. Esse processo de
“garimpagem” dos dados é chamado de Knowledge Discovery in Databases - KDD que
significa descoberta de conhecimento em Banco de Dados.
O KDD pode ser definido como a descoberta de padrões, relacionamentos e tendências
significativas por meio de uma cuidadosa análise dos grandes conjuntos de dados
armazenados. O Data Mining é um dos passos necessários para a realização do processo de
KDD. São chamadas Data Mining todas as técnicas que permitem extrair conhecimento de
uma massa de dados que, de outra maneira, permaneceria escondido nas grandes bases
(QUONIAM et al., 2001).
Segundo Reginato e Nascimento (2007) o Data Mining é a chamada mineração dos
dados, que consiste em buscar padrões consistentes para valores pré-determinados através de
modelos sofisticados. Ou seja, explorar e analisar por meios automáticos ou semi-automáticos
um grande volume de dados e realizar combinações de acordo com valores anteriormente
31
especificados. A autora completa que os mesmos são capazes de atender a um fluxo de
trabalho imprevisível, e propiciar a análise com dados atualizados e históricos para determinar
futuras ações.
3.9 Ferramenta OLAP (OnLine Analytical Processing)
Segundo Thomsen (2002), o conceito OLAP pode ser constituído pela camada de
produtos OLAP que normalmente residem em cima do banco de dados relacionais. Neste caso
o armazenamento e o acesso são tratados pelo banco de dados. Além disso existem os
produtos OLAP completos, que precisam incluir um compilador e métodos de
armazenamento e acesso, são otimizados para acesso a dados e cálculos rápidos, sendo usados
para a modelagem descritiva de dados, derivada de sistemas de suporte a decisão.
De acordo com Anzanello (2006) o termo OLAP foi citado pela primeira vez por E.
F. Codd, quando ele definiu doze regras que estas aplicações deveriam atender. Uma das
regras citadas foi a visão conceitual multidimensional dos negócios de uma empresa, que veio
a se tornar a característica fundamental no desenvolvimento destas aplicações. Esta visão
multidimensional consiste de consultas que fornecem dados a respeito de medidas de
desempenho, decompostas por uma ou mais dimensões dessas medidas. Além disso também
podem ser filtradas pela dimensão e/ou pelo valor da medida. As visões multidimensionais
fornecem as técnicas básicas para a análise requerida pelas aplicações de BI.
Para se obter a visão multidimensional é necessário compreender outras
características, ainda descritas por Anzanello (2006):
○ Cubo é a estrutura que armazena os dados de negócio em formato
multidimensional, a fim de facilitar a análise.
○ Dimensão é a unidade de análise que agrupa dados de negócio relacionados. As
dimensões se tornam cabeçalho de colunas e linhas, como exemplo linhas de
produtos, regiões de venda ou períodos de tempo.
○ Hierarquia é composta por todos os níveis de uma dimensão, podendo ser
balanceada ou não. Na hierarquia balanceada os níveis mais baixos são
equivalentes, porém, isto não ocorre nas hierarquias não balanceadas onde a
equivalência hierárquica não existe. Por exemplo, em uma dimensão geográfica o
nível país não possui o subnível Estado para um determinado membro e possui
32
para outro. No caso específico pode-se citar o país Liechtenstein que não possui
Estado e o Brasil, que possui uma série de Estados.
○ Membro é um subconjunto de uma dimensão. Cada nível hierárquico tem
membros apropriados aquele nível. Por exemplo, em uma dimensão geográfica
existe o nível e seus membros, conforme mostrado no quadro 1.
Nível Membros
Região Ásia, América do Sul, América do Norte
Países China, Brasil, EUA
Estados/Províncias Yunna, Piauí, California
Quadro 1. Exemplo de Níveis e membros (ANZANELLO, 2006).
○ Medida é a dimensão especial utilizada para realizar comparações. Ela inclui
membros tais como: custos, lucros ou taxas.
Thomson (2002) acrescenta ainda os principais requisitos funcionais do OLAP:
○ Estrutura dimensional: A ferramenta OLAP deve utilizar um banco de dados
multidimensional que garanta uma boa performance no acesso e um formato fácil
de apresentação da informação.
○ Especificação eficaz de dimensões e cálculos: Além de agregar números, a
ferramenta OLAP deve ser capaz de utilizar ferramentas de análise. As análises
multidimensionais da ferramenta OLAP são constituídas de fórmulas. As
fórmulas são usadas para agregar, alocar, comparar, analisar, explicar e deduzir.
○ Flexibilidade: Existem várias maneiras de se apresentar as informações. A
flexibilidade de visualização significa que o usuário pode escolher facilmente ver
informações na forma de gráficos, matrizes ou diagramas.
○ Separação de estrutura e representação: Esta separação permite que os modos
de exibição sejam reorganizados por um usuário final sem necessidade de
mudanças estruturais. Se os dados tiverem que ser reestruturados para que
ofereçam suporte a uma nova visualização, provavelmente a nova visualização
não será criada, não de modo ocasional. A falta de separação entre estrutura e
representação é um dos problemas enfrentados na utilização de planilhas
eletrônicas.
33
○ Requisito físico: O acesso rápido às informações é uma característica
fundamental do OLAP. A possibilidade de aumentar o nível de detalhes em uma
consulta requer grande poder de acesso e cálculo dos dados. Uma meta
comumente indicada para os sistemas OLAP é oferecer um tempo médio de
resposta de cinco segundos ou menos, não importando o tipo de consulta ou o
tamanho do banco de dados.
Segundo Anzanello (2006) podemos definir um cubo de dados “como uma
representação intuitiva do fato, por que todas as dimensões coexistem para todo o ponto no
cubo e são independentes entre si”. Além disso, são nos cubos multidimensionais, como o
exemplificado na figura 7, que são gravados os valores quantitativos e as medidas das
informações armazenadas.
Figura 7. Exemplo de modelo de cubo de dados (ANZANELLO, 2006. Adaptado).
3.9.1 Arquiteturas
Conforme descrito por Anzanello (2006), de acordo com o método de armazenamento
de dados utilizado para uma aplicação OLAP, será elaborada a arquitetura da aplicação.
Dentre os métodos de armazenamento de dados, temos MOLAP, ROLAP e HOLAP, além de
uma outra arquitetura que oferece uma variação para a portabilidade dos dados, a DOLAP.
Cada uma delas tem uma função específica e deve ser utilizada quando melhor atender às
necessidades de análise pela ferramenta de OLAP.
A MOLAP (Multidimensional On-Line Analytical Processing), Anzanello (2006)
descreve como a arquitetura onde os dados são armazenados na forma multidimensional. O
acesso aos dados ocorre diretamente no banco de dados do servidor multidimensional. Na
34
arquitetura ROLAP (Relational On-Line Analytical Processing) os dados são armazenados no
modelo relacional como também suas consultas são processadas pelo gerenciador do banco
relacional. Por outro lado, na arquitetura mais recente, a HOLAP (Hybrid On-Line Analytical
Processing), ocorre uma combinação entre ROLAP e MOLAP, onde a vantagem está na
mistura de tecnologias podendo extrair o que há de melhor de cada uma: a alta performance
do MOLAP e a escalabilidade do ROLAP. Já a DOLAP (Desktop On-Line Analytical
Processing) é uma variação que existe para fornecer portabilidade dos dados. O tráfico na
rede mais reduzido é uma vantagem oferecida por esta arquitetura.
3.9.2 Diferenças entre OLTP e OLAP
Anzanello (2006) descreve no quadro 2 (adaptado) as principais características e
diferenças entre os modelos OLTP (OnLine Transaction Processing) e OLAP (OnLine
Analytical Processing). O primeiro baseia-se em transações e como exemplos temos sistemas
de cadastros, sistemas de compra e estoque e caracterizam-se por utilizar-se tipicamente de
atualizações, portanto trabalhando com dados atuais. Além disso, a quantidade de dados
manipulada é inferior a utilizada em sistemas OLAP, o que torna sua complexidade mais
baixa. Enquanto os sistemas OLAP, caraterizam-se por oferecer subsídio para tomada de
decisões a partir de bases de dados históricos, muitas vezes com um volume de dados elevado
e utilizando-se de Data Warehouses, que trabalham com os conceitos de dimensão, fato e
medida.
Características Modelos Transacionais (OLTP) Modelos Analíticos (OLAP)
Operação típica Atualização frequente Análise
Precisão Dados atuais Dados históricos
Volume de dados Poucos Muitos
Complexidade Baixa Alta
Exemplos de Sistemas ERP, CRM SSD, SIG
Modelagem Linhas e colunas Dimensões, medidas e fatos
Quadro 2. Características marcantes entre modelos OLTP e OLAP (ANZANELLO, 2006. Adaptado).
35
3.10 Sistemas de Suporte a Decisão
Historicamente muitas organizações sempre possuíam seus sistemas transacionais
(sistemas de apoio à operação), os quais davam suporte no seu dia-a-dia. Porém isso não
significa que as informações estão sempre disponíveis para suprir as necessidades da gerência.
A partir disso, então foi introduzido o conceito de Data Warehouse, que leva a organização a
possuir um repositório histórico, integrado e ordenado por assunto. A inserção deste novo
repositório, e, consequentemente, a aglomeração de um grande volume de dados neste
repositório dificultou a análise destes dados pelos analistas, de modo que foi necessário o
surgimento de técnicas para análise de dados. Tais técnicas permitem a extração de
informações para atender as necessidades da organização, mas, vão além e também permitem
a extração de informações implícitas, ou seja, conhecimento, que estão escondidas entre os
dados. Além disso, permitem identificar relações e tendências na interpretação dos dados,
com o objetivo de suprir as necessidades gerenciais e apoiar os processos de gestão.
(MORALES, 2012).
O conceito de análise de dados, segundo Morales (2012), une ferramentas de
processamento analítico, ou OnLine Analytical Processing - OLAP, ferramentas de análise
exploratória de dados - AED e ferramentas de extração de conhecimento, também conhecidas
como Knowledge Discovery in Databases – KDD), as quais possibilitam a descoberta de
informações (explícitas e implícitas) que possam ser úteis às organizações. A Figura 8 ilustra
esse conceito.
36
Figura 8. Sistemas de Suporte a Decisão (MORALES, 2012).
3.11 Software livre
O software livre de acordo com a Associação Software livre (2012) se refere à
liberdade dos usuários executarem, copiarem, distribuírem, estudarem, modificarem e
aperfeiçoarem o software. Portanto o acesso ao código fonte do programa é uma condição
necessária.
Software livre não significa não-comercial. Um programa livre deve estar disponível
também para este fim. O desenvolvimento de ferramentas livres para fins comerciais não é
incomum atualmente. Dentre essas regras, é permitido que o desenvolvedor do software livre
defina alguns tipos de limites quanto a distribuição do programa. Desde que essas regras não
neguem às pessoas as liberdades principais do software livre, podem ser feitas, até mesmos,
para proteger a ferramenta (ASSOCIAÇÃO SOFTWARE LIVRE, 2012).
37
3.12 Suíte Pentaho
O Pentaho Business Analytics é um software livre, e tem todo o seu código fonte
aberto para desenvolvimento de projetos que utilizam Business Intelligence - BI. Segundo
Montaño et al. (2008) como opções disponíveis tem-se geração de relatórios sobre bases de
dados dimensionais e apresentação de dados em forma de cubo (pivoteamento). Um dos
grandes diferenciais do Pentaho em relação a outros softwares BI é a possibilidade de
personalização que ele oferece. A utilização de arquivos descritores em formato XML permite
a alteração em tempo de execução, facilitando a geração de relatórios e informações mais
precisas.
A suíte é composta por cinco softwares que foram produzidos com o objetivo de
auxiliar em cada etapa específica do processo de criação de um projeto BI. Cada software
pode, portanto, ser utilizado individualmente, ou com outras ferramentas. Porém a utilização
dos mesmos em conjunto fornece uma melhor performance, visto que se complementam nas
suas funcionalidades.
Os cinco softwares são descritos por Purificação et al. (2011):
○ Pentaho BI Platform: Contém a infraestrutura responsável por integrar a solução
de BI. Ele oferece serviços essenciais para construir, implantar, executar e dar
suporte aos relatórios, análise de cubos, dashboards, etc. Também provê
mecanismos de autenticação e controle de acesso;
○ Pentaho Data Integration (PDI): Também conhecido por Kettle, esta ferramenta
é responsável pelo processo de Extraction, Transformation and Load - ETL ou
Extração, Transformação e Carga;
○ Mondrian: É um servidor OLAP que permite analisar interativamente grandes
conjuntos de dados armazenados em bancos de dados relacionais;
○ Pentaho Reporting: É uma coleção de projetos de código fonte aberto, com foco
principalmente na criação, produção e publicação do conteúdo de relatórios de
forma rica e sofisticada.
○ Weka: É um conjunto abrangente de ferramentas para aprendizado de máquina e
mineração de dados. Pode ser usada para ajudar a entender melhor o negócio da
instituição.
38
Ainda segundo Purificação et al. (2011) a suíte Pentaho Business Analytics está
disponível em duas versões: A versão Community Edition4 e Enterprise Edition. A primeira é
mantida por uma comunidade de voluntários e tem todo o seu código aberto. Já a segunda, se
trata da versão comercial do software, possui uma parte do seu código fechado e a Pentaho
Corporation, sediada em Orlando, Flórida, com escritórios em São Francisco, Califórnia e
toda a Europa, é a organização mantenedora que fornece suporte técnico e funcionalidades
extras aos clientes.
3.13 Qualidade de software
Para PRESSMAN (2006), qualidade de software é “a conformidade a requisitos
funcionais e de desempenho explicitamente declarados, a padrões de desenvolvimento
claramente documentados e a características implícitas que são esperadas de todo software
profissionalmente desenvolvido”.
SPERANDIO (2008) afirma que qualidade de software compreende três objetos:
qualidade de projeto, qualidade de produto e qualidade de processo.
A qualidade de projeto é resultado do estabelecimento de um processo de projeto. Para
sua eficácia é importante analisar o cumprimento das metas estabelecidas, custos pré-
definidos e cronogramas, identificar e definir indicadores de execução e realizar intervenções,
quando necessárias.
A qualidade do processo é determinada pelo grau de flexibilidade para incorporar
características implícitas de qualidade de produto e novos métodos, técnicas e ferramentas ao
processo. O processo de software é a sequência de passos para a construção de um produto de
software que começa com a coleta de requisitos do usuário e termina com a entrega do
produto final e tem um ciclo de vida que oferece uma análise crítica dos documentos de
requisitos e estende-se à implantação e manutenção do produto.
A qualidade do produto de software é resultado das atividades realizadas no processo
de seu desenvolvimento. Avaliar a qualidade de um produto de software é verificar, através de
técnicas e atividades operacionais, o quanto os requisitos são atendidos. Logo, a qualidade de
produto de software é expressa pelo nível de conformidade com os requisitos.
4 Disponível em http://sourceforge.net/projects/pentaho.
39
3.14 ISO/IEC 9126-1
A ISO/IEC 9126-1 é a norma ISO, publicada em 1991, que trata da qualidade do
produto de software onde produto de software definido como "uma entidade de software
disponível para liberação a um usuário" e, qualidade de software é definida como "a
totalidade das características de um produto de software que lhe confere a capacidade de
satisfazer necessidades explícitas e implícitas", sendo as necessidades explícitas as expressas
na definição de requisitos propostos pelo produtor e as necessidades implícitas aquelas que
podem não estar expressas nos documentos do produtor, mas que são necessárias ao usuário
(GLADCHEFF; ZUFFI; SILVA, 2001).
3.14.1 Características
Segundo Gladcheff, Zuffi e Silva (2001), a norma provê um conjunto de atributos para
se avaliar e descrever a qualidade de um produto de software genérico baseadas em 6
características: Funcionalidade, Usabilidade, Confiabilidade, Eficiência, Manutenibilidade e
Portabilidade. O quadro 3 apresenta a descrição de cada uma dessas características.
Característica Descrição
Funcionalidade Evidencia que o conjunto de funções atende às necessidades explícitas
e implícitas para a finalidade a que se destina o produto.
Usabilidade Evidencia a facilidade de utilização do software.
Confiabilidade Evidencia que o desempenho se mantém ao longo do tempo em
condições estabelecidas.
Eficiência Evidencia que os recursos e os tempos envolvidos são compatíveis com
o nível de desempenho requerido para o produto.
Manutenibilidade Evidencia que há facilidade para correções, atualizações e alterações.
Portabilidade Evidencia que é possível utilizar o produto, em diversas plataformas
com pequeno esforço de adaptação.
Quadro 3. Características da Qualidade de Software segundo a ISO/IEC 9126-1 (TSUKUMO, 1997 apud GLADCHEFF; ZUFFI; SILVA, 2001).
40
3.14.2 Subcaracterísticas
A ISO/IEC 9126-1 descreve diversas subcaracterísticas para cada uma das
características descritas anteriormente. Essas subcaracterísticas são manifestadas
externamente, quando o software é utilizado como parte de um sistema computacional, e são
resultantes de seus atributos internos (SPERANDIO, 2008).
A figura 9 mostra as características e cada uma de suas subcaracterísticas:
Figura 9. Estrutura da ISO/IEC 9126 (Associação Brasileira de Normas Técnicas, NBR ISO/IEC9126, 2003).
Foram abordados neste capítulo, os conceitos de Gestão do conhecimento, sistemas
para apoio a tomada de decisões, Business Intelligence, data warehouse, informações sobre o
software Pentaho, bem como qualidade de software e ISO/IEC 9126-1. Tais conceitos são
fundamentais para uma melhor compreensão do estudo de caso apresentado no capítulo
seguinte.
4 ESTUDO DE CASO
Neste capítulo será abordado o estudo de caso realizado a partir do referencial teórico
apresentado anteriormente. Assim, pretende-se mostrar as mudanças que a utilização de uma
ferramenta de Business Intelligence pode proporcionar na Instituição de Ensino e objeto de
estudo.
A dificuldade apresentada pela Instituição é unir os dados dispersos e torná-los um
importante fator no processo de tomada de decisões do gestor, gerando oportunidades de
melhoria contínua em todo o processo.
4.1 Instituto Federal Fluminense (IFF)
O estudo de caso apresentado neste trabalho foi realizado no Instituto Federal de
Educação, Ciência e Tecnologia Fluminense que é um dos 38 criados, em dezembro de 2008,
pelo Governo Federal, a partir dos Cefets, escolas agrotécnicas e vinculadas às universidades.
O projeto de expansão da Rede Federal foi iniciado em 2005.
A História do IF Fluminense começou no início do século passado. Foi Nilo Peçanha,
o então presidente da república, que criou através de decreto as Escolas de Aprendizes e
Artífices com o propósito de educar e proporcionar oportunidades de trabalho para os jovens
das classes menos favorecidas. No começo da década de 90, depois de ter se tornado Escola
Técnica Federal, foi transformado em Centro Federal de Educação Tecnológica, porém, só em
1999, depois de um longo período de avaliação institucional, seis unidades da Rede Federal
são autorizadas a oferecer cursos em nível de terceiro grau.
O Instituto possui hoje, sete câmpus: campus Campos-Centro, Campos-Guarus, Macaé
e Quissamã, no Norte do Estado do Rio; campus Itaperuna e Bom Jesus do Itabapoana, no
Noroeste Fluminense e campus Cabo Frio na Região dos Lagos. Sua estrutura ainda conta
com os pólos Avançados de São João da Barra e Cambuci, Pólos de EAD, além da Unidade
de Pesquisa e Extensão Agroambiental, que atende pequenos produtores rurais.
A oferta de cursos leva em consideração o arranjo produtivo local com o intuito de
garantir a permanência dos estudantes em suas próprias regiões. Vinte por cento das vagas são
42
destinadas à formação de professores de química, física, biologia e matemática, já que a
intenção é diminuir a necessidade nacional de professores nas áreas. Além disso, metade das
vagas é reservada para cursos de ensino médio integrado à educação profissional. Os 30%
restantes vão para cursos de nível superior nas áreas de tecnologia.
Atualmente, o centenário IF Fluminense atua nos três níveis da formação profissional.
No ano de 2012 teve em torno de treze mil matrículas em todos os campi, na educação inicial
e continuada de trabalhadores, cursos técnicos e cursos superiores de tecnologia, ensino
médio, educação de jovens e adultos, Licenciaturas, Cursos de Pós-graduação e Mestrado.
4.1.1 Tomada de decisões no Instituto
No Instituto Federal Fluminense o processo de tomada de decisões passa por
diferentes níveis hierárquicos onde estão os coordenadores de curso, diretores de ensino,
conselhos, pró-reitoria de ensino e avaliadores institucionais. Esses gestores realizam análises
e avaliações por meio do software de gerenciamento acadêmico da instituição e através de
solicitações ao Registro Acadêmico que as retorna em forma de planilhas ou outros meios.
Este processo é trabalhoso e envolve uma série de pessoas que deveriam realizar
outras tarefas em vez de localizar e prover informações para atenderem às solicitações dos
gestores. O Registro Acadêmico, que, hoje, detêm acesso a uma série de dados por meio de
softwares e planilhas distribuídas por diferentes áreas necessita de pessoas específicas para
localizar tais informações e disponibilizá-las aos gestores educacionais. As pessoas
designadas para atender a esta demanda, muitas vezes, sobrecarregam outras que devem
realizar as tarefas usuais do Registro, como atendimento aos alunos, verificação de diplomas,
enturmações, entre outros.
É possível notar que o processo é bem distribuído, pois envolve diversos gestores
localizados em diferentes níveis estratégicos. Desde pró-reitorias, e coordenações de cada
campus, reunindo as informações para a reitoria e diretores de campus, a fim de realizarem
decisões estratégicas. Nesse processo ainda estão inseridos os conselhos dos câmpus que
apóiam e auxiliam neste processo. Dentre ele podemos citar: fórum de coordenadores, fóruns
de ensino, pesquisa e extensão, entre outros.
43
4.2 A escolha da ferramenta
A escolha do software Pentaho se deve a alguns fatores, tais como: a escolha de uma
ferramenta de código aberto que condiz com a utilização em uma Instituição pública;
Possibilita o seu uso gratuito, facilitando o download e o acesso aos seus documentos com
maior facilidade; É mantida por uma comunidade ativa, atualizando possíveis erros e
prestando o suporte necessário.
A ferramenta também possibilita a personalização, por se tratar de um software livre.
Há ainda a utilização de arquivos descritores em formato XML que permitem a alteração em
tempo de execução, que facilita a geração de relatórios e informações mais precisas.
Juntamente deve ser utilizado um computador que possua hardware que atenda aos requisitos
mínimos para o correto funcionamento da aplicação.
Além disso, para a realização do estudo não é necessária a utilização da melhor
ferramenta disponível no mercado, mas a que forneça opções de realizar um estudo de caso
com resultados comprovadamente satisfatórios, o que o Pentaho possibilita.
Enfim, caso a Instituição verifique as vantagens que a utilização de uma ferramenta
desta natureza pode proporcionar e optar pela sua utilização de forma definitiva deve ser
analisado se a suíte Pentaho é, de fato, a melhor opção, ou se existe no mercado outra capaz
de alcançar um melhor custo-benefício para o IFF.
4.3 Engenharia reversa
Como ponto de partida para a realização do estudo de caso, foi realizado estudo do
Banco de dados disponibilizado pelo Instituto, a fim de conhecê-lo e entender os
relacionamentos de forma mais detalhada. Para isso foi utilizada uma ferramenta que
permitisse a realização desta engenharia reversa e proporcionasse uma visão global dos dados
existentes.
Este estudo foi desenvolvido para obter um maior conhecimento do banco e
possibilitar a criação das visões no software para o usuário final de forma adequada à
necessidade e com informações precisas. A compreensão do banco de dados do instituto
44
proporciona uma visão amplificada das informações que podem ser disponibilizadas e
providas à análise dos gestores a fim de tomarem as decisões necessárias para definir os
rumos da instituição.
O software utilizado foi o SQL Manager for SQL Server 20085, que possibilitou a
visualização do banco de forma amplificada através de diagrama de relacionamentos. A
escolha do software se deu devido à opção de proporcionar esta visão mais amplificada, pois
como o banco disponibilizado continha uma grande quantidade de tabelas e relacionamentos,
o software ajudou a entender melhor os relacionamentos existentes.
A realização desta engenharia reversa foi de extrema importância para assimilar as
informações contidas no banco, conseguir localizar os dados e compreender os
relacionamentos existentes entre as tabelas. Para isso, paralelamente com a análise do banco
foi utilizado o software Acadêmico da Instituição a fim de validar as informações encontradas
no banco de dados.
Para o estudo de caso foram analisadas as tabelas: cursos, pautas, matriculas,
instituições e professor. Cada uma dessas tabelas apresenta diversos campos que são
utilizados no software do Instituto, mas para o estudo foram selecionados somente os campos
necessários para a criação dos cubos utilizados. A figura 10 apresenta o diagrama montado
com a seleção de algumas dessas tabelas. No anexo D estão apresentadas todas as tabelas
utilizadas no estudo de caso de forma ampliada.
5 O EMS SQL Manager para SQL Server é uma ferramenta de alta performance para desenvolvimento e administração de bancos de dados MS SQL Server. Disponível em http://www.sqlmanager.net/products/mssql/manager.
45
Figura 10. Apresentação da tela do software SQL Manager for SQL Server 2008 com tabelas do banco de
dados. Fonte: Elaboração própria.
4.4 Definição do Cubo
Após a engenharia reversa no banco de dados operacional, foi realizada a definição
dos fatos, dimensões e medidas que iriam compor o Cubo que seria desenvolvido para a
utilização do modelo multidimensional na suíte Pentaho.
Para esta etapa foi necessário responder a uma série de questões, que segundo Morales
(2012) devem ser feitas antes de iniciar a criação do modelo multidimensional. O primeiro
passo foi à definição do processo de negócio a ser estudado, onde definimos os Alunos e
Professores como negócios a serem modelados. O segundo passo foi à definição dos fatos e as
métricas utilizadas. Para tal foi necessária a resposta a pergunta: “O que será avaliado?”.
Então, uma vez que o negócio avaliado são os Alunos e os Professores, temos as medidas
como a média do Coeficiente de rendimento, a quantidade de matrículas dos alunos e a soma
da carga horária de aulas ministradas pelos professores. No terceiro passo, definimos as
dimensões pelas quais seriam analisadas as medidas. A pergunta: “Como as métricas serão
analisadas?” foi o foco para a definição neste passo. Para isso, foram escolhidas como
dimensões do Aluno: o próprio aluno, campus e curso. A figura 11 mostra as dimensões de
46
Aluno. Enquanto as dimensões escolhidas para o Professor foram: o próprio professor,
campus, disciplina. A figura 12 apresenta o diagrama contendo as dimensões de Professor. O
quarto passo foi a definição da granularidade, ou seja, qual o grau de detalhe desejado para
cada dimensão. Foi definida uma granularidade alta, uma vez que para o estudo não é
necessário um aprofundamento muito grande nos fatos abordados. Além disso, com esta
escolha, obtém-se um melhor desempenho nas consultas. No quinto, e último, passo foram
definidas a hierarquia de agrupamento das informações, baseando-se na pergunta: “Como se
espera agrupar as informações?”. Foram definidas hierarquias simples com apenas código e
nome para o caso do Professor. Para Aluno, código, matrícula, período atual, ano letivo e
período letivo para Aluno. No campus, apenas código e descrição, assim como curso, mas
acrescentando o turno. Por fim, as disciplinas, ou pautas, foram definidas com código,
descrição, ano letivo e período letivo.
A partir disso, foi realizada a criação das tabelas e relacionamentos no banco de dados.
O banco utilizado foi o SQL Server6, uma vez que o banco de origem dos dados
disponibilizados pelo Instituto também foi o SQL Server. A escolha da manutenção do
mesmo banco e não a utilização de uma ferramenta software livre para este caso deu-se pela
necessidade de manter a integridade dos dados existentes do banco de dados de origem. Foi
realizada a tentativa de migração para um banco de dados software livre MySQL, mas
diversas inconsistências encontradas foram determinantes para a opção pela manutenção do
banco em SQL Server.
Foi criado o banco de dados e os relacionamentos baseando-se no modelo
multidimensional estrela, que é o mais utilizado para a criação de modelos dimensionais e tem
como característica a criação da tabela de fato com as chaves estrangeiras de cada chave
primária das tabelas de dimensões, formando um diagrama parecido com uma estrela. No
estudo de caso, foram criadas duas tabelas de fato, Aluno, contendo as chaves estrangeiras:
cod_aluno, cod_di_instituicao e cod_di_curso, além do coeficiente_rendimento, que é a
medida a ser analisada. As chaves estrangeiras são as chaves primárias das respectivas tabelas
de dimensões: di_aluno, di_instituicao e di_curso, como demonstrado na figura 11; A tabela
de fato Professor foi criada contendo as chaves estrangeiras: cod_professor, cod_pauta,
cod_di_instituicao, além da medida carga_hor_presencial, a medida a ser analisada neste fato.
As chaves estrangeiras são as chaves primárias das respectivas tabelas de dimensões:
di_professor, di_pauta, di_instituicao, como pode ser visualizado na figura 12.
6 O Microsoft SQL Server é um servidor de banco de dados abrangente, para grandes cargas de trabalho. Disponível em: http://www.microsoft.com/sqlserver/pt/br/default.aspx
47
Figura 11. Dimensões do Fato Aluno. Fonte: Elaboração própria.
Figura 12. Dimensões do Fato Professor. Fonte: Elaboração própria.
4.5 Extração, Transformação e Carga (Extract, Transform and Load - ETL)
A terceira etapa foi a realização do processo de Extração, Transformação e Carga que
foram realizadas em uma das ferramentas da suíte Pentaho, o Data Integration, ou Kettle. A
ferramenta oferece o suporte necessário para realizar todas as tarefas deste processo.
48
4.5.1 Extração
Na etapa de extração, foi feita a seleção dos dados que seriam utilizados no estudo de
caso, a partir do banco de dados que foi disponibilizado. Nesta etapa, foi realizada a conexão
com o banco de dados origem, através do campo “Connection” e uma série de consultas em
SQL às tabelas do banco de dados origem. Como exemplo, a figura 13 mostra a consulta
realizada para a extração dos dados da tabela Cursos. Todas as tabelas de dimensões tiveram
as configurações semelhantes a esta realizada na dimensão Curso. Foram extraídos diversos
campos que podem ser utilizados posteriormente, mas apenas os campos definidos
anteriormente serão utilizados no estudo de caso. A seleção destes campos necessários e
mudança de nomes para utilizar um padrão serão realizadas na etapa de Transformação.
É interessante perceber que, basta que sejam configuradas diferentes fontes de
informação ou bancos de dados para que se obtenham os dados dessas fontes. Ou seja, é
permitido, de forma facilitada, a extração de dados de diferentes bancos de dados, mesmo que
estes não tenham nenhuma ligação entre si. Esta opção é de grande relevância, pois é nesta
etapa que podem ser capturados dados de diversos sistemas utilizados pela instituição a fim de
unificá-los e transformá-los em informação de valor para o gestor onde ele poderá explorar a
partir da suíte Pentaho e do manuseio dos cubos e dimensões gerados.
49
Figura 13. Extração dos campos da tabela Cursos no banco de dados origem. Fonte: Elaboração própria.
4.5.2 Transformação
A etapa de Transformação é responsável por fazer uma seleção dos dados que são
úteis para o estudo, criar campos que não existem, mas os requisitos do negócio assim
exigem, e realizar os cálculos para a criação desses novos campos. Nesta etapa também
podem ser modificadas as formas de visualização dos campos ou renomeá-los.
No estudo de caso foi realizada a transformação em algumas tabelas, como di_curso e
di_instituicao, pois foi necessária a criação de um novo campo para a chave primária, uma vez
que os códigos importados das tabelas do banco de dados origem passaram a ser duplicadas
devido ao conceito de Data Warehouse que introduz a tabela fato. Desse modo foi adicionado
o ícone “Add sequence” para realizar esta tarefa. Além disso, em todas as dimensões é
50
necessário adicionar o ícone “Select values” para realizar a seleção dos campos que devem ser
importados para o banco de dados destino, do nosso estudo. A figura 14 mostra a seleção de
todos os campos que foram extraídos da tabela dos cursos do banco de dados origem. É
possível verificar as colunas “Rename to”, “Length” e “Precision” que podem ser
configuradas para alterar o nome do campo, o tamanho e a precisão desejada.
Figura 14. Configuração da seleção dos campos no ícone “Select values” da transformação di_curso. Fonte:
Elaboração própria.
A figura 15 mostra os campos que foram removidos mantendo, apenas, a seleção dos
campos necessários para o estudo, que são: o código do curso, o código do turno e a descrição
do curso.
51
Figura 15. Configuração da remoção de campos no ícone “Select values” da transformação di_curso. Fonte:
Elaboração própria.
4.5.3 Carga
Nesta etapa é realizada a inserção dos valores selecionados na etapa anterior na tabela
desejada no banco de dados destino. Para isso, basta criar a conexão com o banco de dados
destino e selecionar a tabela onde os dados serão inseridos.
Utilizando o software, foi criado um ícone “Table output” para definir o banco de
dados e a tabela onde os dados deveriam ser gravados em cada uma das dimensões. A figura
16 apresenta a configuração realizada.
52
Figura 16. Configuração do banco e da tabela destino no ícone “Table output” da tranformação di_curso. Fonte:
Elaboração própria.
Toda a transformação realizada na tabela di_curso, apresentando todos os ícones
utilizados e descritos anteriormente, está apresentada na figura 17. Esta transformação é
realizada em todas as dimensões previamente definidas e são bastante semelhantes a esta
apresenta.
Figura 17. Diagrama da transformação realizada na tabela di_curso. Fonte: Elaboração própria.
4.5.4 Tabela fato
Na tabela fato as configurações são diferentes das realizadas nas tabelas de dimensões,
uma vez que essa tabela é responsável por unir as informações e relacioná-las. Para as tabelas
ft_professores e ft_alunos, as configurações foram semelhantes. A figura 18 apresenta toda a
transformação realizada na tabela ft_professores.
53
Figura 18. Diagrama da transformação realizada na tabela ft_professores. Fonte: Elaboração própria.
O primeiro ícone, “Table input” realiza a extração dos campos das tabelas pautas,
instituicoes e professores do banco de dados origem, a partir de uma consulta SQL. Sua
configuração é igual à configuração realizada em cada uma das dimensões e está apresentada
na figura 19.
Figura 19. Consulta SQL realizada no ícone “Table input” da transformação ft_professores. Fonte: Elaboração própria.
Os ícones “Database lookup”, “Database lookup 2” e “Database lookup 3” tem o
objetivo de relacionar os campos extraídos com os campos das respectivas tabelas de destino.
Como demonstrado na figura 20 às configurações relativas ao “Database lookup” e a tabela
di_professor, do banco de dados destino, são relacionados o campo nome_usual do banco de
dados origem e nome_usual do banco de dados destino, enquanto o cod_aluno é o valor a ser
retornado da tabela. A configuração se repete nos outros dois ícones “Database lookup” com
as diferenças de cada tabela destino, di_pauta e di_instituicao. O ícone “Select values” vai
realizar a seleção dos campos desejados a serem inseridos na tabela destino e os campos que
serão removidos.
54
Figura 20. Configurações do ícone “Database lookup” na transformação ft_professores. Fonte: Elaboração própria.
Enquanto o ícone “Group by” define a forma de agrupamento dos campos, e, por fim o
ícone “Insert/Update” que realiza a comparação entre os campos a fim de verificar se os
valores são iguais, se não forem, serão atualizados e, caso contrário, serão mantidos. A figura
21 apresenta a sua configuração.
55
Figura 21. Configurações do ícone “Insert/Update” da transformação ft_professores. Fonte: Elaboração própria.
4.6 Pentaho User Console
Após a realização das etapas anteriores, com o banco de dados multidimensional já
criado e populado com todas as informações desejadas, a próxima etapa foi utilizar o Pentaho
User Console para prover as informações para o usuário. Na figura 22 é visualizada a tela
inicial da ferramenta. Nesta tela estão disponíveis as opções de criação de um relatório e
criação de uma visão analítica.
56
Figura 22. Tela de apresentação do Pentaho User Console. Fonte: Elaboração própria.
Para concluir as configurações e deixar tudo pronto para uso do usuário, nesta etapa
foi configurada a conexão com o banco de dados no Pentaho Administration console, para
que o Pentaho BI Server pudesse realizar esta conexão. Após isto, foram criadas duas novas
fontes de dados: uma para o fato professores e outra para o fato alunos. Ao criar as fontes de
dados, é necessário inserir uma consulta SQL a fim de definir os campos e tabelas que se
deseja obter. Para isso, a figura 23 apresenta a consulta realizada para o fato alunos.
Figura 23. Consulta SQL para a configuração do fato alunos. Fonte: Elaboração própria.
Após a inserção da consulta é necessária a configuração do cubo, definindo as
dimensões, medidas e hierarquias de cada dimensão. A figura 24 mostra a configuração
realizada para a tabela fato alunos. É importante notar que o período, ano letivo e período
letivo foram configurados como dimensões, mas esta se deve apenas a forma como serão
57
apresentados os dados para o usuário. A configuração foi realizada desta forma a fim de
facilitar o manuseio e a utilização por parte do usuário, tornando mais propício para análises e
tomada de decisões.
Figura 24. Configuração do cubo do fato Alunos. Fonte: Elaboração própria.
Realizadas estas configurações, o cubo já pode ser visualizado e manuseado pelo
usuário. A figura 25 mostra a imagem do cubo com todas as dimensões definidas
anteriormente e a medida, o coeficiente de rendimento. Para isto, basta ao usuário iniciar uma
nova visão analítica e selecionar o cubo que deseja. É importante esclarecer que o usuário não
realiza as configurações do cubo, bem como não necessita inserir as consultas SQL, estas
tarefas de criação e configuração ficam a cargo do profissional treinado para realizá-las. Este
profissional é responsável por realizar todas as etapas descritas anteriormente e configurar os
cubos e visualizações de acordo com as solicitações enviadas pelo usuário. Cabe ao usuário,
apenas, solicitar as informações e visões que deseja obter, e, após a configuração feita pelo
profissional, ele pode ter acesso a essas informações a fim de auxiliar no processo de tomada
de decisões.
No anexo E estão apresentadas outras visões desenvolvidas para este estudo de caso.
Cubo Alunos com a medida quantidade de matrículas e cubo Professores com a medida carga
horária.
58
Figura 25. Cubo Alunos estendendo as dimensões alunos e campus. Fonte: Elaboração própria.
Nesta etapa, o usuário é capaz de estender as dimensões de acordo com a análise que
deseja realizar. Além disso, ele é capaz de, em tempo de execução alterar a ordem das colunas
a fim de propiciar uma análise de acordo com sua necessidade. A figura 26 apresenta na parte
superior à esquerda os ícones que o usuário deve alterar para realizar as mudanças nas
colunas. Caso deseje, o usuário também pode salvar a visão apresentada com dimensões já
estendidas a fim de facilitar uma nova consulta futura, propiciando maior agilidade e
prevenindo erros de execução.
Dentre os ícones localizados na parte superior também é permitido ao usuário alterar
configurações de visualização do cubo apresentado, alterando as colunas para linhas e as
linhas para colunas. Esta configuração é interessante para fins de análise e visualizações
desejadas pelo usuário. Além disso, é permitida a alteração dos ícones por setas, entre outros.
O usuário pode também imprimir a tela em que está analisando e exportá-la para o Excel, caso
deseje. Outra opção permitida é a visualização de um gráfico, é apresentado na parte inferior,
e é alterado de acordo com a expansão das visões pelo usuário.
59
Figura 26. Tela do Cubo Alunos, com configuração onde usuário pode alterar a ordem das colunas. Fonte:
Elaboração própria.
A exploração de tais informações da maneira permitida pelo software proporciona ao
gestor a possibilidade de visualizar os dados, que muitas vezes, se encontram espalhados em
diversos softwares da instituição, de maneira organizada e precisa. Esta exposição em forma
multidimensional é interessante, uma vez que facilita a busca por informações de um valor
específico, como de um valor amplo. No caso da quantidade de matrículas, apresentada na
figura 26, o usuário pode verificar a quantidade tanto de toda a instituição, como de uma
turma em um ano e semestre letivo especificamente. A facilidade na exploração destas
informações é um fator decisivo para a tomada de decisões dos gestores no tempo e momento
adequado, tornando um importante diferencial para a instituição.
O Pentaho BI Server disponibiliza ainda a opção de criação de relatórios simples,
onde o usuário pode criá-los de forma personalizada, ou seja, ele pode escolher entre os
campos e informações que deseja exportar para o relatório, assim como é possível escolher o
tipo de arquivo do relatório exportado. As opções de tipos de exportação são: planilha do
Excel, arquivo pdf, arquivo csv, e a opção de apenas mostrar na tela, em HTML. A figura 27
mostra um relatório exportado em pdf, apresentado na mesma tela do software onde é
permitido ao usuário salvá-lo no local desejado.
60
Figura 27. Tela de um relatório em pdf, onde é permitido ao usuário salvá-lo. Fonte: Elaboração própria.
4.7 Avaliação de acordo com a ISO/IEC 9126-1
Com o intuito de analisar se um software de Business Intelligence pode proporcionar
melhorias e uma opção de auxílio aos tomadores de decisão de uma Instituição de ensino foi
realizada uma avaliação com gestores e tomadores de decisão do Instituto Federal
Fluminense. Com a avaliação sendo realizada pelos gestores do Instituto é possível obter
resultados satisfatórios, uma vez que esses gestores estão trabalhando no dia-a-dia com
informações como as apresentadas no estudo de caso e partir delas devem tomar decisões para
nortear o futuro da Instituição. Para tal foram selecionados gestores da Instituição em diversas
áreas como: diretor de cursos, coordenador de ensino, avaliador institucional, coordenador de
curso.
4.7.1 Método de Avaliação
A avaliação foi baseada na ISO/IEC 9126, que sugere características que um software
deve apresentar para que produza os resultados esperados pelos seus usuários. Dentre as
61
características estão: Funcionalidade, usabilidade, confiabilidade, eficiência, manutenibilidade
e portabilidade.
Dentre as características descritas na ISO, foi selecionada a característica da
Usabilidade para a realização deste estudo. A escolha foi realizada para adequar a realidade
do software apresentado e as conclusões que se pretende realizar. Assim como, segundo
Sperandio (2008), o critério da usabilidade é um dos mais importantes para a qualidade de um
produto de software, visto que impacta na eficiência, eficácia e produtividade na interação
usuário-sistema.
Nielsen afirma que “a usabilidade é o grau de satisfação e eficiência que o usuário de
um determinado sistema computacional pode atingir, em função dos objetivos específicos do
trabalho, num dado ambiente” (NIELSEN, apud SPERANDIO, 2008).
Os componentes da usabilidade, segundo NIELSEN (1995), são:
• Fácil aprendizado: o sistema deve ser fácil de aprender, permitir que o usuário
possa rapidamente começar a trabalhar e a obter resultados;
• Eficiência: o sistema deve ser eficiente, desde que o usuário aprendeu a usá-lo,
sendo possível um alto nível de produtividade;
• Fácil de ser lembrado: o sistema deve ser fácil de ser lembrado, assim o usuário
pode retornar ao sistema depois de algum tempo sem usá-lo sem precisar aprender
tudo novamente;
• Minimização de erros: o sistema deve ter uma baixa taxa de erro, para que o
usuário cometa poucos enquanto o utiliza e, se os cometer, que possa facilmente
recuperar-se; erros catastróficos não devem ocorrer;
• Satisfação: o sistema deve ser agradável de usar, o usuário deve gostar dele.
A característica de Usabilidade evidencia se o software proporciona facilidade de
utilização e aprendizado por parte do seu usuário. Com estas características espera-se obter
resultados que respondam a indagação feita neste projeto, ou seja, se um software,
desenvolvido para auxiliar as necessidades dos gestores do mercado dos negócios também se
apresenta como uma opção interessante para atender as necessidades e auxiliar nas tomadas
de decisão dos gestores de uma Instituição de ensino.
Entre as subcaracterísticas descritas para a Usabilidade, estão: Inteligibilidade,
apreensibilidade e operacionalidade. A Inteligibilidade verifica o grau de facilidade para
entendimento da aplicação. A subcaracterística Apreensibilidade verifica se o aprendizado no
62
manuseio da aplicação é facilitado. Enquanto a Operabilidade verifica o grau de facilidade na
operação da ferramenta e se há obtenção de ajuda com facilidade.
Neste estudo de caso foram apresentadas questões para serem respondidas pelos
avaliadores que, segundo Silva (2003), são ideais para a realização de uma boa avaliação de
software. São questionários eletrônicos que foram desenvolvidos para abranger o critério de
usabilidade descrito na ISO/IEC 9126 como um todo, incluindo seus subcritérios:
Inteligibilidade, Apreensibilidade e Operacionabilidade.
Conforme descrito por Nielsen apud Silva (2003) são necessários apenas cinco
usuários para se obter resultados satisfatórios em um teste de usabilidade. Este foi o número
de usuários que realizaram a avaliação neste trabalho. Esses usuários são os reais tomadores
de decisão do Instituto, são os prováveis usuários da ferramenta em uma possível adoção da
instituição.
Primeiramente, o avaliador deve expor sua percepção quanto ao grau de importância
da questão exposta. Ele deve assinalar “Grande importância”, para as questões onde ele
considera que tenha uma importância elevada; “Média importância”, para as questões com um
grau menor de prioridade para o ambiente acadêmico; “Pouca importância”, para as questões
que ele julga terem menor prioridade para o ambiente; e “Nenhuma importância”, quando a
questão não estiver condizente com o ambiente acadêmico. O questionário com os critérios
encontra-se no anexo A.
Após isso, o avaliador deve expor sua opinião através da atribuição de um conceito
com as opções: “Muito bom”, onde o software atende êxito a questão; “Bom”, onde o
software atende àquela questão; “Médio”, onde o software atende a questão, mas com alguma
possibilidade de melhoria; “Ruim”, onde o software atende a questão com grande dificuldade;
“Péssimo”, quando o software atende a questão, porém necessita de grandes melhorias por
apresentar problemas; “Inexistente”, onde o software não atende a questão. Silva (2003)
baseia-se na ISO/IEC 9126-1 para a elaboração de suas questões, seguindo as definições de
cada característica e subcaracterística da norma. O questionário para esta avaliação está
contido no anexo B.
Através da realização de uma oficina com os avaliadores, onde foi apresentado o
software, sua função e suas funcionalidades os mesmos puderam utilizar o software,
navegando nos cubos configurados, gerando as visões desejadas e exportando relatórios com
as informações personalizadas. Após esta etapa, foram apresentados os questionários
eletrônicos e os avaliadores expressaram suas impressões sobre a ferramenta apresentada.
63
Um fato a ser destacado foi à utilização dos dados apresentados no software para
auxílio à Diretoria de Planejamento Estratégico e Avaliação Institucional para a coleta das
informações de quantitativo de alunos por curso nos câmpus do Instituto. Esta coleta tem
como objetivo apresentar o resumo dos indicadores gerais do IFF e de todos os seus câmpus.
4.7.2 Resultados
Com o intuito de analisar a aplicabilidade do software Pentaho na área educacional,
mais especificamente no contexto do Instituto Federal Fluminense, foi realizada a coleta de
informações de gestores e coordenadores do Instituto através de questionário de avaliação sob
os critérios de usabilidade.
A partir da análise dos questionários, foi possível perceber que a maior parte dos
requisitos foi considerada de grande importância para o ambiente da gestão acadêmica, como
apresentado na figura 28.
Figura 28. Apresentação do resultado final da avaliação. Fonte: Elaboração própria.
Foi possível observar que apenas três critérios obtiveram resultados abaixo do nível
máximo em relação à classificação de prioridade. Dois destes critérios, “A presença de ajuda
64
(help), indicando o que cada operação significa” e “Capacidade de continuar a operação em
caso de erros ou falhas no sistema”, foram classificados com prioridade média por quatro dos
cinco avaliadores, como demonstrado nas figuras 29 e 30.
Figura 29. Classificação de prioridade do critério “A presença de ajuda (help), indicando o que cada operação significa”. Fonte: Elaboração própria.
Figura 30. Classificação de prioridade do critério “Capacidade de continuar a operação em caso de erros ou falhas no sistema”. Fonte: Elaboração própria.
O critério “Fornecimento de um dicionário contendo os termos utilizados pelo
sistema” foi o avaliado como de menor prioridade para a área acadêmica, recebendo três
classificações como média importância, uma como pouca importância e uma como nenhuma
importância. A figura 31 apresenta esta avaliação.
65
Figura 31. Classificação de prioridade do critério “Fornecimento de um dicionário contendo os termos utilizados pelo sistema”. Fonte: Elaboração própria.
Todos os outros critérios foram classificados pela maioria dos avaliadores com
relevância grande para a área acadêmica e estão apresentados na figura 32.
Figura 32. Resultado da classificação de prioridade para todos os critérios. Fonte: Elaboração própria.
66
Os critérios apresentados na figura 32 estão definidos pelos intervalos: de 0 à 1,5,
“nenhuma importância”; de 1,5 à 3, “pouca importância”; de 3 à 4,5, “média importância”; e
de 4,5 à 6, “grande importância”.
Quanto à avaliação da qualidade do produto em relação aos critérios apresentados,
foram obtidos cinco resultados inferiores ao valor máximo. Dentre eles, um resultado
classificado como “Médio” e quatro classificados como “Bom”.
O critério que obteve a menor classificação dos avaliadores foi “Fornecimento de um
dicionário contendo os termos utilizados pelo sistema”. Ele recebeu de dois avaliadores a
classificação “Médio”, de outros dois avaliadores recebeu classificação “Bom” e um avaliador
classificou como “Inexistente”. A figura 33 mostra esta avaliação.
Figura 33. Classificação de qualidade do critério “Fornecimento de um dicionário contendo os termos utilizados pelo sistema”. Fonte: Elaboração própria.
“A presença de ajuda (help), indicando o que cada operação significa” e “Capacidade
de não perder os dados em caso de erros ou falhas no sistema” foram dois dos quatro critérios
que foram avaliados como “Bom”. A classificação foi atribuída mediante a média das
respostas dos avaliadores, uma vez que dois desses avaliadores classificaram como “Bom”,
outros dois como “Médio” e um avaliador atribuiu a classificação “Muito bom”. Nas figuras
34 e 35 estão demonstradas estas avaliações.
67
Figura 34. Classificação de qualidade do critério “A presença de ajuda (help), indicando o que cada operação
significa”. Fonte: Elaboração própria.
Figura 35. Classificação de qualidade do critério “Capacidade de não perder os dados em caso de erros ou falhas no sistema”. Fonte: Elaboração própria.
Com a mesma avaliação, “Bom”, está o critério “Capacidade de continuar a operação
em caso de erros ou falhas no sistema”. Este critério obteve de três avaliadores a classificação
“Médio” e de outros dois, a classificação “Bom”. Com a média, foi obtida a classificação
“Bom”. A figura 36 apresenta esta avaliação.
68
Figura 36. Classificação de qualidade do critério “Capacidade de continuar a operação em caso de erros ou falhas no sistema”. Fonte: Elaboração própria.
Na figura 37 está apresentada a avaliação do critério “Tempo de resposta às operações
realizadas” que foi classificado como “Bom”, obtendo de três avaliadores a classificação
“Bom” e dos outros dois, a classificação “Médio”.
Figura 37. Classificação de qualidade do critério “Tempo de resposta às operações realizadas”. Fonte: Elaboração própria.
Os demais critérios foram classificados como “Muito bom” pela maioria dos
avaliadores, e a partir da média obtiveram esta classificação final. A figura 38 apresenta todos
os critérios com a pontuação final definida pelos intervalos: 0, “inexistente”; de 0 à 2,
“péssimo”; de 2 à 4, “ruim”; de 4 à 6, “médio”; de 6 à 8, “bom”; e de 8 à 10, “muito bom”.
69
Figura 38. Resultado da classificação de qualidade do produto para todos os critérios. Fonte: Elaboração própria.
Analisando as relações entre os dois questionários respondidos pelos avaliadores
podemos chegar a algumas conclusões. O critério “Fornecimento de um dicionário contendo
os termos utilizados pelo sistema” obteve o grau de satisfação “Médio”, o menor entre todos,
porém obteve também o menor grau de importância, que foi “Pouca Importância”. Pelo grau
de satisfação apresentado, esse critério aparece como o principal ponto de melhoria futura,
porém, pelo grau de importância obtido, conclui-se que o impacto desse requisito é pouco
relevante para a usabilidade da ferramenta na área de aplicação.
Critérios como “Facilidade de encontrar e acessar as telas das operações”,
“Capacidade de simular as operações do sistema”, “Telas e relatórios contendo o mesmo
modelo padrão” e “Capacidade de impedir o uso do sistema por pessoas não autorizadas”
foram considerados de grande importância e também obtiveram máximo grau de satisfação, e
70
por representarem critérios importantes, constatam a utilidade do software na área acadêmica
com grau de qualidade elevado.
O requisito “A presença de ajuda (help), indicando o que cada operação significa” foi
avaliado com grau de prioridade “Média Importância”, o que retrata que, apesar de ser
importante, a ajuda do sistema não foi vista como crítica pelos avaliadores, constatando a
facilidade da interação com a ferramenta, tornando tal recurso pouco necessário.
Dos requisitos que foram avaliados com grau de importância máximo, apenas dois não
foram classificados com o nível máximo quanto à qualidade. Foram eles: “Capacidade de não
perder os dados em caso de erros ou falhas no sistema” e “Tempo de resposta às operações
realizadas”. Dando o grau de importância definido, eles podem ser considerados pontos de
melhoria para o software.
Foi abordado neste capítulo o estudo de caso realizado no Instituto Federal
Fluminense, bem como o detalhamento de cada uma das suas etapas. Além disso, a avaliação
realizada com gestores do Instituto também foi explorada, assim como foram apresentados os
resultados desta avaliação.
5 CONCLUSÕES E SUGESTÕES DE TRABALHOS FUTUROS
Com base nos resultados apresentados anteriormente, foi possível concluir que o
objetivo do trabalho, que é mostrar a aplicabilidade das ferramentas de Business Intelligence
na gestão educacional, foi alcançado.
Nesse trabalho, a fim de comprovar a ideia proposta, foram utilizados apenas dois
cubos, com a análise de dois fatos: Coeficiente de Rendimento e Quantidade de matrículas no
cubo Alunos e Carga Horária no cubo Professores. Foram criados apenas esses dois exemplos
para fins demonstrativos, mas é importante ressaltar que a ferramenta permite criar várias
outras combinações em cubos e visões, o que agrega um maior número de informações e,
portanto, mais conhecimento.
Por meio da avaliação realizada no estudo de caso com gestores inseridos no processo
de tomada de decisões do instituto, foram obtidos resultados que possibilitaram observações
sobre a utilização do software Pentaho. Dos quinze critérios avaliados, doze deles obtiveram o
maior grau de importância para a área acadêmica, dentre eles, apenas dois não foram
avaliados com o maior grau de qualidade no Pentaho, são eles a “Capacidade de não perder os
dados em caso de erros ou falhas do sistema” e “Tempo de resposta às operações realizadas”.
Portanto, foi possível concluir que o software pode fornecer auxílio e ser aplicado na área
estudada.
Além disso, critérios como a precisão dos resultados apresentados, capacidade de
simular as operações e oferecer segurança no acesso ao sistema, foram avaliados com grande
importância e também com qualidade muito boa, como apresentado na figura 28. Esse
resultado enfatiza a aplicabilidade do software e a possibilidade de fornecer suporte a gestores
educacionais para o processo de tomada de decisões, uma vez que são critérios importantes
com excelentes resultados.
Como ponto de destaque podemos citar, além dos resultados para comprovar a
possibilidade de implantação da ferramenta no instituto, a utilização do modelo do estudo de
caso desenvolvido para prover informações à Diretoria de Planejamento Estratégico e
Avaliação Institucional e servir à coleta das informações de quantitativo de alunos por curso
nos câmpus do Instituto. Esta disponibilização é um exemplo concreto das informações que o
instituto pode obter com o software, com maior rapidez nos resultados apresentados.
Foi possível identificar que o uso do BI e da suíte Pentaho pode ser amplamente
expandido no Instituto Federal Fluminense. Uma vez que a instituição adote a ferramenta
72
como instrumento de auxílio à tomada de decisões pode-se realizar um grande número de
configurações de cubos e visões para que fiquem a disposição dos gestores e a medida que
seja necessária a criação de novas visões, um bolsista poderia atender a estas demandas em
um curto espaço de tempo de forma a gerar mais informações que colaborem com as decisões
estratégicas.
Concluiu-se que a partir da utilização do software Pentaho, pode ser aplicado o
conceito de Business Intelligence, gerando informações que podem ser utilizadas pelos
gestores educacionais do Instituto Federal Fluminense como base para tomar decisões
pertinentes para o ambiente acadêmico.
Apesar de o conceito de Business Intelligence ser nativo de uma necessidade da área
empresarial, sua utilização não se restringe a essa área. Pelo contrário, o Business Intelligence
pode ser utilizado em qualquer ambiente em que se faz necessária a tomada de decisão
fundamentada em informações seguras, desde que se disponha de tecnologia e dados
relevantes, organizados e confiáveis. Logo, é possível que se desenvolvam novos trabalhos
investigando a eficácia da utilização de ferramentas de BI como auxílio à gestão em outros
ambientes não-empresariais.
Outra sugestão de trabalho futuro é a realização da adoção do Pentaho para auxiliar a
tomada de decisões do Instituto Federal Fluminense, uma vez que foi manifestada pelos
gestores e coordenadores, que participaram da avaliação, a possibilidade da ferramenta
agregar informações, realizar as análises necessárias e oferecer auxílio no processo de
decisões da instituição.
73
REFERÊNCIAS
ANZANELLO, C. A. OLAP conceitos e utilização. In: Instituto de Informática, UFRGS. 2006. Disponível em: <http://www.fag.edu.br/professores/limanzke/Administra%E7%E3o%20de%20Sistemas%20de%20Informa%E7%E3o/OLAP.pdf>. Acesso em: 11 jul 2012. ASSOCIAÇÃO BRASILEIRA DE NORMAS TÉCNICAS. NBR ISO/IEC 9126-1:2003: Engenharia de software: Qualidade de produto: parte 1: modelo de qualidade. Rio de Janeiro, 2003. ASSOCIAÇÃO SOFTWARE LIVRE. Associação Softwarelivre.org. Disponível em: http://softwarelivre.org. Acesso em: 07 nov 2012. BEVILACQUA, J. F.; BITU, Y. A. Business Intelligence (BI) e a abordagem de Gestão Balanced Scorecard (BSC) na Organização. Monografia (Pós-graduação). Universidade Católica de Brasília. Brasília, 2003. CARDOSO, O. N. P.; MACHADO, R. T. M. Gestão do conhecimento usando data mining:estudo de caso na Universidade Federal de Lavras. Rev. da Administração Pública [online], v.42, n.3, pp. 495-528. 2008. Disponível em: <http://www.scielo.br/scielo.php?script=sci_pdf&pid=S0034-76122008000300004&lng=en&nrm=iso&tlng=pt>. Acesso em: 07 nov 2012. CASARTELLI, A. O.; RODRIGUES, A. C. M.; BITTENCOURT H. R.; GARIBOTTI V. Inteligência estratégica em instituições de ensino superior. Rev. Perspectivas em Ciência da Informação [online], v.15, n.2. 2010. Disponível em: http://portaldeperiodicos.eci.ufmg.br/index.php/pci/article/view/952/740. Acesso em: 06 nov 2012. CASTRO, S. A.; GONÇALVES, P. R.; CAZARINI, E. W. O uso do OLAP na estratégia de vendas em uma indústria de calçados alavancando a gestão de cadeia de suprimentos. In: Encontro Nacional de Engenharia de Produção, XXIV, 2004, Florianópolis. Anais eletrônicos... Florianópolis: ENEGEP, 2004. Disponível em: <http://www.abepro.org.br/biblioteca/ENEGEP2004_Enegep0902_1120.pdf>. Acesso em: 11 jul 2012. CAVALCANTI, G. G; FELL, A. F. A; DORNELAS, J. S. Data Warehouse: uma ferramenta de tecnologia de informação para as organizações. In: Simpósio de Engenharia de Produção, XII, 2005, Bauru, São Paulo. Anais eletrônicos... Bauru, São Paulo: SIMPEP, 2005. Disponível em: <http://www.simpep.feb.unesp.br/anais_simpep_aux.php?e=12>. Acesso em: 11 jul 2012. CLEMES, M. Data warehouse como suporte ao sistema de informações gerenciais em uma instituição de ensino superior - estudo de caso na UFSC. Dissertação (Mestrado em Engenharia de Produção) – Programa de Pós-Graduação em Engenharia de Produção, Universidade Federal de Santa Catarina. Florianópolis, 2001.
74
COSTA, A. F.; ANCIÃES, F. C., Aspectos de criação e carga de um ambiente de data warehouse. Trabalho de Conclusão de Curso (Bacharelado em Informática) - Departamento de Ciência da Computação, Universidade Federal do Rio de Janeiro - UFRJ, Rio de Janeiro. 2001. FERREIRA, M. ; PIAUHY, C. ; CARVALHO, J. ; SILVA, R. ; VIEIRA, V. Um Estudo de Caso com Análise Comparativa entre Ferramentas de BI Livre e Proprietária. In: Escola Regional de Banco de Dados (ERBD), 2010, Joinville. Anais da Escola Regional de Banco de Dados 2010. Porto Alegre: SBC, 2010. GLADCHEFF, A. P; ZUFFI, E.M; SILVA, M. Um Instrumento para Avaliação da Qualidade de Softwares Educacionais de Matemática para o Ensino Fundamental. In: Congresso da Sociedade Brasileira de Computação, XXI, 2001, Fortaleza, Ceará. Anais eletrônicos... Fortaleza, Ceará: XXI Congresso da Sociedade Brasileira de Computação, 2001. Disponível em: <http://200.169.53.89/download/CD%20congressos/2001/SBC%202001/pdf/arq0057.pdf>. Acesso em: 30 out 2012. GIL, A. C. Como elaborar projetos de pesquisa. 5ª Edição. São Paulo: Atlas, 2010. INMON, W. H.; HACKATHORN, Richard D. Como construir o data warehouse. Rio de Janeiro: Campus, 1997. LAUDON, K.; LAUDON, J. Sistemas de informação gerenciais. 9ª Edição. São Paulo: Pearson Prentice Hall, 2010. LEME FILHO, T. O Business Intelligence como apoio à formulação de estratégia. In: Simpósio de Excelência em Gestão e Tecnologia, IV, 2007, Rio de Janeiro. Anais eletrônicos... Rio de Janeiro: SEGET, 2007. Disponível em: <http://www.aedb.br/seget/artigos2007.php?pag=34>. Acesso em: 11 jul 2012. LIMA, V. M.; BOSCARIOLI, C. Uso de Ferramentas de Business Intelligence na Análise de Desempenho de uma Empresa de Agronegócios. In: Simpósio Brasileiro de Sistemas de Informação, VIII, 2012, São Paulo. Anais eletrônicos... São Paulo: SBSI, 2012. Disponível em: <http://www.lbd.dcc.ufmg.br/colecoes/sbsi/2012/0042.pdf>. Acesso em: 28 jul 2012. MONTAÑO, R. A. N. R.; MIRANDA, M. R.; CASTILHO, M. A.; SILVA, L. F.; HEXSEL, R. A. Businness Intelligence nas Escolas Públicas do Estado do Paraná. In: Workshop de Software Livre, IX, 2008, Porto Alegre. Anais eletrônicos... Porto Alegre: Workshop de Software Livre, 2008. Disponível em: <http://www.c3sl.ufpr.br/prd/artigos>. Acesso em: 11 jul 2012. MORALES, A. B. T. Sistemas de Apoio a Decisão. Cursos de Sistemas de Informação e Ciências da Computação. 2012. UNISUL. Florianópolis, Santa Catarina. Disponível em: <http://aran.ispeople.org/sad/Aula_1_Alunos_2012.pdf>. Acesso em: 6 jun de 2012. NIELSEN, J. Applying discount usability engineering. IEEE Software, v. 12, n. 1, p.98-100, Jan. 1995.
75
OLIVEIRA, D. P. R. de. Sistemas de Informações gerenciais: estratégicas, táticas, operacionais. 13ª Edição. São Paulo: Atlas, 2009. PENNA, R. A. C.; JUNIOR, A. S. R. O Data Warehouse como Suporte à Inteligência de Negócio. In: Simpósio de Excelência em Gestão e Tecnologia, IX, 2012, Resende, Rio de Janeiro. Anais eletrônicos... Rio de Janeiro: SEGET, 2012. Disponível em: <http://www.aedb.br/seget/artigos07/1116_SEGET_Artigo_O_Business_Intelligence_como_apoio_a_formulacao_de_estrategia.pdf>. Acesso em 05 nov 2012. PRESSMAN, R. S. Engenharia de software. 6. Ed. São Paulo: McGraw-Hill, 2006. PURIFICAÇÃO, M. C. S.; SANTOS, A. L. M. P.; BORGES, F. C.; SILVA, H. A. C.; PEREIRA, M. J. Uma Proposta de Aplicação de Business Intelligence para o Censo das IES. In: Workshop de Software Livre, XII, 2011, Porto Alegre. Anais eletrônicos... Porto Alegre: Workshop de Software Livre, 2011. Disponível em: <https://softifes.andifes.org.br/attachments/download/427/BI.pdf>. Acesso em: 12 jul 2012. QUONIAM, L.; TARAPANOFF, K.; JUNIOR, R. H. A.; ALVARES, L. Inteligência obtida pela aplicação de data mining em base de teses francesas sobre o Brasil. Ciência da Informação, Brasília, vol. 30, n. 2, p. 20-28, maio/ago. 2001. REGINATO, L.; NASCIMENTO, A. M. Um estudo de caso envolvendo Business Intelligence como instrumento de apoio à controladoria. Rev. contab. finanç., vol.18, no.spe, p.69-83. 2007. SANTOS, A. R.; PINHEIRO, D. L.; TALLYSON, I.; SANTOS, E. S.; BRITO, U. S.; AMORIM, F. A. Gestão do conhecimento. Rev. ADM Work [online], vol.7, 2001. Disponível em: <http://189.3.47.201/admwork/documento8.pdf>. Acesso em: 07 nov 2012. SILVA, S. V. Avaliação da Qualidade de Software - Uma Abordagem Baseada na Satisfação do Usuário. Dissertação de Mestrado em Engenharia de Produção. Universidade Estadual do Norte Fluminense - UENF. Campos, Rio de Janeiro, 2003. SPERANDIO, D. J. A tecnologia computacional móvel na sistematização da assistência de enfermagem: avaliação de um software-protótipo. Tese de Doutorado. Departamento de Enfermagem Geral e Especializada, Escola de Enfermagem de Ribeirão Preto/USP. Ribeirão Preto, São Paulo. 2008. Disponível em: <http://www.teses.usp.br/teses/disponiveis/22/22132/tde-11092008-165036/pt-br.php>. Acesso em: 30 out 2012. THOMSEN, E. OLAP Construindo Sistemas de Informações Multidimensionais. Rio de Janeiro: Campus, 2002.
76
ANEXOS
ANEXO A: QUESTIONÁRIO DE AVALIAÇÃO DO SOFTWARE PENTAHO SEGUNDO A PRIORIDADE NA ÁREA ACADÊMICA
Esta pesquisa tem como objetivo a avaliação do software que está sendo apresentado. Na tabela a seguir observe as perguntas quanto às características do software. Marque um X na opção melhor se adéqua ao nível de prioridade da questão em relação à área acadêmica. Marque de acordo com o grau de importância: Grande, Média, Pouca ou Nenhuma.
Grau de importância Questão Grande Média Pouca Nenhuma
1 A presença de ajuda (help) indicando o que cada operação significa:
2 Capacidade de emitir mensagens quando o usuário digitar um dado errado:
3 Capacidade de aproveitar a digitação de dados repetidos:
4 O aparecimento de mensagens claras e objetivas:
5 Capacidade de não perder os dados em caso de erros ou falhas no sistema:
6 Facilidade de encontrar e acessar as telas das operações:
7 Capacidade de continuar a operação em caso de erros ou falhas no sistema:
8 Telas e relatórios contendo o mesmo padrão:
9 Capacidade de impedir o uso do sistema por pessoas não autorizadas:
10 Tempo de resposta às operações realizadas:
11 Capacidade de mostrar qual usuário realizou cada operação:
12 Capacidade de simular as operações do sistema:
13 Fornecimento de manuais de instrução para uso do sistema:
14 Precisão dos resultados. Emissão de resultados corretos:
15 Fornecimento de um dicionário contendo os termos utilizados pelo sistema:
77
ANEXO B: QUESTIONÁRIO DE AVALIAÇÃO DO SOFTWARE PENTAHO SEGUNDO A QUALIDADE DO SOFTWARE
Esta pesquisa tem como objetivo a avaliação do software que está sendo apresentado. Na tabela a seguir observe as perguntas quanto às características do software. Marque um X na opção melhor se adéqua a sua avaliação do software em relação à questão apresentada. Muito bom, se o software atender com êxito à questão; Bom, se o software atender àquela questão; Médio, se o software atender à questão, mas com alguma melhoria necessária; Ruim, se o software atender à questão com grande dificuldade; Péssimo, se o software atender à questão, mas não está adequado e apresenta problemas; Inexistente, onde o software não atende a questão.
Questão Muito Bom
Bom Médio Ruim Péssimo Inexistente
1 A presença de ajuda (help) indicando o que cada operação significa:
2 Capacidade de emitir mensagens quando o usuário digitar um dado errado:
3 Capacidade de aproveitar a digitação de dados repetidos:
4 O aparecimento de mensagens claras e objetivas:
5 Capacidade de não perder os dados em caso de erros ou falhas no sistema:
6 Facilidade de encontrar e acessar as telas das operações:
7 Capacidade de continuar a operação em caso de erros ou falhas no sistema:
8 Telas e relatórios contendo o mesmo padrão:
9 Capacidade de impedir o uso do sistema por pessoas não autorizadas:
10 Tempo de resposta às operações realizadas:
11 Capacidade de mostrar qual usuário realizou cada operação:
12 Capacidade de simular as operações do sistema:
13 Fornecimento de manuais de instrução para uso do sistema:
14 Precisão dos resultados. Emissão de resultados corretos:
15 Fornecimento de um dicionário contendo os termos utilizados pelo sistema:
78
ANEXO C: TERMO DE COMPROMISSO
TERMO DE COMPROMISSO, que fazem entre si, Munir de Sá Mussa, brasileiro,
portador do documento de identidade número 20.689.376-0, expedido pelo DETRAN, residente e domiciliado nesta cidade, estudante de Sistemas de Informação doravante denominado de GRADUANDO, Saulo Chaves de Souza, brasileiro, portador do documento de identidade número 22.389.792-7, expedido pelo DETRAN, residente e domiciliado nesta cidade, estudante de Sistemas de Informação doravante denominado de GRADUANDO e Instituto Federal Fluminense Campus - Campos Centro (IFF), representado pela Diretora de Ensino Superior dos Cursos de Tecnologia e Bacharelados Aline Pires Vieira de Vasconcelos, sediado nesta cidade, assumem de comum acordo os seguintes compromissos: Do objeto
1. Fica instituído que o projeto de pesquisa, com orientação do Professor Eduardo Francisco da Silva Freire, intitulado “Business Intelligence como ferramenta de apoio ao processo decisório em uma Instituição Educacional” , será desenvolvido em parceria entre os GRADUANDOS e o IFF.
Do projeto 2. O projeto de pesquisa terá como objetivo estudar o aplicação de Business Intelligence
como apoio à gestão educacional.
Das disposições gerais 3. São obrigações dos GRADUANDOS:
a. manter sigilosas as informações individuais dos alunos e dos registros de existentes, bem como nomes de pessoas físicas e jurídicas envolvidas no processo;
4. São obrigações do IFF:
a. disponibilizar os arquivos de banco de dados relativos aos cursos superiores de Informática do IFF Campus - Campos Centro, em 30 (trinta) dias a contar da data da assinatura do presente termo, em cópia xerográfica ou mídia digital.
5. São direitos dos GRADUANDOS:
a. divulgar os resultados da pesquisa, apresentando somente as informações macro, sem ferir o item 3.a. do presente termo;
b. interromper os trabalhos de pesquisa, desde que devidamente justificados.
6. São direitos do IFF:
a. utilizar como melhor lhe convier os dados levantados durante a pesquisa;
b. interromper o fornecimento de informações aos GRADUANDOS, se comprovada a falha no sigilo ditado no item 3.a.
79
Das disposições gerais 7. Toda responsabilidade sobre as divulgações ficarão a cargo de seus autores.
8. O vazamento de informações citadas neste termo será de inteira responsabilidade dos GRADUANDOS, desde que comprovada culpa ou dolo.
9. Qualquer dirimência deverá ser discutida no foro da Comarca de Campos dos Goytacazes.
Assim sendo, assinam o presente TERMO DE COMPROMISSO, os GRADUANDOS, o IFF e o professor Eduardo Francisco da Silva Freire. Campos dos Goytacazes, 09 de maio de 2012. MUNIR DE SÁ MUSSA – Graduando SAULO CHAVES DE SOUZA – Graduando ALINE PIRES VIEIRA DE VASCONCELOS – Diretora de Ensino Superior dos Cursos de Tecnologia e Bacharelados do IFF EDUARDO FRANCISCO DA SILVA FREIRE – Professor-Orientador
80
ANEXO D: APRESENTAÇÃO DAS TABELAS DO BANCO DE DADOS DA INSTITUIÇÃO UTILIZADAS NO ESTUDO DE CASO
Figura 39. Tabela Cursos do banco de dados do instituto. Fonte: Elaboração própria.
Figura 40. Tabela Cursos do banco de dados do instituto. Fonte: Elaboração própria
81
Figura 41. Tabela Matriculas do banco de dados do instituto. Fonte: Elaboração própria
82
Figura 42. Tabela Pautas do banco de dados do instituto. Fonte: Elaboração própria
Figura 43. Tabela Professores do banco de dados do instituto. Fonte: Elaboração própria
83
ANEXO E: APRESENTAÇÃO DE VISÕES NO SOFTWARE PENTAHO
Figura 44. Cubo Alunos estendendo as dimensões ano letivo, campus e curso com a medida quantidade de
alunos. Fonte: Elaboração própria.
Figura 45. Cubo Professores estendendo as dimensões campus, pauta e ano letivo com a medida carga horária.
Fonte: Elaboração própria.