Este blogue será utilizado na nova Unidade Curricular - Metodologias de Investigação do Programa Doutoral Multimédia em Educação. Os elementos do grupo são: Carlota Lemos,Cláudia Cruz, Isabel Araújo, Luís Pereira e Lurdes Martins.

31
Mar 10









Stringer, E. (2007). Action Research- Third Edition. London: Sage


A análise de dados em Investigação – Acção deverá ajudar a responder às questões “O quê?” e “Como?”. São identificados dois processos de análise de informação:


1.       Categorização e codificação – através da delimitação de unidades de sentido que sintetizem as experiências/percepções dos sujeitos envolvidos no estudo.


2.       Selecção de experiências-chave e desconstrução das mesmas no sentido de conhecer os elementos que as potenciaram e as caracterizam.


Categorização e Codificação


Os autores referem a pertinência em utilizar termos e expressões dos próprios participantes, de forma a evitar a subjectividade do investigador. É também sugerida uma análise faseada, ou seja, se estivermos a analisar as perspectivas dos diferentes actores educativos, deve, num primeiro momento, analisar-se a perspectiva dos alunos, professores, pais,… de forma isolada e só posteriormente cruzar a informação para saber o que têm de convergente e divergente.


Etapas


1.       Leitura e revisão da informação recolhida – esta etapa pauta-se por diversas leituras da informação recolhida no sentido de o investigador se familiarizar com os dados recolhidos e também no sentido de confrontar esses dados com as questões de investigação, seleccionando, desta forma, a informação mais relevante da acessória.


 


2.       Delimitação de unidades de significado – trata-se da identificação de conceitos e ideias para isolar elementos que permitam criar unidades de significado. Estas tanto poderão ser constituídas por palavras, frases ou conjuntos de frases. Haverá uma reorganização de todo o material, em função das unidades de significado.


 


 


3.       Codificação – as unidades de significado serão organizadas em categorias que serão definidas tendo em conta as questões de investigação, bem como dos objectivos do estudo.


 


4.       Identificação de temas e padrões – o objectivo é encontrar temas transversais a vários intervenientes. Trata-se de um exercício de comparação de informação.


 


 


5.       Estruturação de um sistema de codificação – desenvolvimento de uma nomenclatura onde estejam organizadas todas as categorias e subcategorias delineadas.


 


6.       Desenvolvimento do relatório – é o processo de comunicação dos resultados relevantes. As categorias e subcategorias identificadas poderão auxiliar na estruturação do texto.


 


 


Selecção de experiências-chave


 


Este processo é muito utilizado, por exemplo, nas histórias de vida.


Etapas


1.       Leitura e revisão da informação recolhida – tal como no processo anterior.


 


2.       Identificação das experiências-chave – para cada participante são identificados os eventos ou experiências que pareçam mais significativos.


 


3.       Identificação das características principais de cada experiência trata-se do levantamento das características específicas que contribuíram para a relevância atribuída à experiência.


 


4.       Identificação dos elementos que compõem essa experiência –o objectivo é um conhecimento detalhado e aprofundado dos aspectos intrínsecos a essa experiência.


 


5.       Identificar temas – trata-se de listar as características e elementos das experiências de cada participante e proceder a uma posterior comparação, com o intuito de identificar aspectos comuns ao grupo de participantes.


 


6.       Desenvolvimento do relatório – é o processo de comunicação dos resultados relevantes.


 


Enriquecimento do processo de análise


A metodologia de investigação-acção caracteriza-se por um conjunto de ciclos de acção. Segundo os autores, os primeiros ciclos de acção permitem que o investigador redefina o seu enfoque investigativo e que conheça a forma como os intervenientes primários percepcionam o processo e as modificações introduzidas. Nos ciclos investigativos seguintes deverá existir um confronto com perspectivas de intervenientes secundários e também o confronto com pesquisas bibliográficas. Desta forma consegue-se uma análise holística, pois consideram-se todos os factores que poderão ter impacto na construção de uma solução para o problema identificado.


 


Quadro facilitador do processo de interpretação


São mencionados quatro hipóteses de abordagem para auxiliar o processo de interpretação


1.       Questões interpretativas – Porquê? O quê? Como? Quem? Onde? Estas questões permitem compreender o problema e os contextos descritos. A página 130 apresenta um conjunto de exemplos de possíveis questões interpretativas.


 


2.       Análise Organizacional –o objectivo será conhecer várias interpretações de diferentes secções, departamentos de uma instituição sobre, por exemplo, aspectos problemáticos. Os participantes do processo devem focalizar-se nos seguintes aspectos organizacionais:


 


a.       Visão


b.      Missão


c.       Objectivos


d.      Estrutura da organização


e.      Funcionamento


f.        Problemas


 


3.       Mapas conceptuais – Esta abordagem é mais pertinente quando o problema em estudo como parte de um sistema complexo (ex.: desmotivação escolar, consumo de estupefacientes). Qualquer tentativa de resolução do problema tem de considerar os aspectos sociais que o envolvem.


 


4.       Análise do problema: causas e efeitos – Esta abordagem é similar à anterior, mas focaliza-se na identificação de antecedentes do problema em análise. Esta possível abordagem poderá estruturar-se do seguinte modo:


 


a.       Problema identificado


b.      Principais antecedentes do problema


c.       Outros factos significativos relacionados com os antecedentes


d.      Principais consequências negativas


e.      Outras consequências significativas


 



30
Mar 10









Um artigo que nos apresenta diferenças e similaridades entre a pesquisa qualitativa e a pesquisa quantitativa. Refere como características da pesquisa qualitativa a sua grande flexibilidade e adaptabilidade, o que requer maior cuidado na descrição de todos os passos da pesquisa. Este artigo alerta para o facto de que geralmente os manuais da pesquisa qualitativa apresentam a recolha e análise da dados interligados. Mais ainda apresenta uma secção sobre Análise de dados na pesquisa qualitativa. Apesar de não existir uma relação directa a variedade de análise de dados corresponde à variedade de recolha de dados. Nesta secção estão mencionadas as sete maneiras de analisar dados referidas por Mayring (2002). Por fim apresenta uma reflexão sobre a escolha entre uma pesquisa qualitativa e pesquisa quantitativa.



Qual a metodologia a adoptar?



Como anexo tem alguns link de recursos relacionados com a análise de dados qualitativos.


 


 


http://www.scielo.br/pdf/ptp/v22n2/a10v22n2.pdf



29
Mar 10

Norton, L.S. (2009). Action Research in Teaching and Learning. A practical guide to conducting pedagogical research in universities. Routledge e Taylor & Francis e-Library. Oxon and New York.


8. Como pode analisar os dados quantitativos na investigação-acção pedagógica?

O autor refere que a análise quantitativa é vantajosa em estudos de investigação-acção pedagógica quando o método é

· uma experiência,

· uma escala de atitude ou de inquérito;

· um estudo de observação, que envolve contagem,

· produz toda a informação que é quantificável (intervalos de idades, número de anos de ensino, etc.)

Neste capítulo, faz a distinção entre a estatística descritiva e estatística inferencial, resumindo os princípios básicos de alguns dos testes estatísticos, bem como indicando algumas orientações que podem ajudar na escolha se desejar usar um teste paramétrico ou não-paramétrico.

As estatísticas descritivas

São usadas quando se deseja apresentar as descrições dos dados observados, isto é, apresentar as informações contidas nos dados. Apresentam-se as estatísticas descritivas mais utilizadas: medidas de tendência central (média, mediana e moda), medidas de dispersão ou variabilidade (variação, desvio médio e desvio padrão) e contagem de frequência.

Contagem de frequência é o registo do número de vezes que determinada característica é observada no estudo; é uma maneira fácil de resumir os dados e de forma que seja acessível a qualquer público.

Medidas de tendência central

- média resume um grande número de dados num único valor. No entanto, pode ser enganosa quando os dados se encontram mais dispersos.

- mediana é o valor médio de um conjunto de dados ordenados por ordem crescente. A sua principal vantagem é não ser afectada por outlier.

- moda é o valor dos dados que ocorre com mais frequência; pode não ser única, havendocasos de distribuições trimodal ou bimodal.

medidas de dispersão

- amplitude total (intervalo de variação) é a diferença entre os valores extremos da variável; pode dar uma ideia um pouco distorcida do estudo.

- desvio médio indica o quanto, em média, os dados diferem da média da distribuição;é calculado utilizando todos os dados, mas como considera os valores absolutos dos desvios não possui grandes propriedades matemáticas.

- desvio padrão é a medida de dispersão mais utilizada, está relacionado com a distribuição normal (média, mediana e moda todas iguais ou muito próximos); diz-nos quanto os valores da variável estão desviados da média. Quanto menor for o desvio padrão mais equilibrada será a distribuição. É um dos indicadores para a escolha de um teste estatístico.

A estatística descritiva oferece um caminho claro de apresentar os resultados.No entanto, existem estudos quando se quer ir além de descrever os dados de modo a dar uma explicação de causa e efeito. Esta é a estatística inferencial.

Estatística inferencial

Este tipo de análise estatística ultrapassa o nível de descrição e pretende tirar algumas conclusões a partir dos dados recolhidos;seria usado, por exemplo, quando se está a testar hipóteses para se fazer previsões.O autor concentrou-se em três tipos de testes: os testes para correlações, testes de diferenças de média (amostras emparelhadas e amostras independentes) e testes de ajustamento.

nível de confiança (ou teste de significância - os mais utilizados em ciências sociais são: 55%, 99%, 99,9% e 99,99%) significa até que ponto podemos estar confiantes que os resultados que obtivemos nas nossas investigações não ocorreram por acaso;

o nível de significância (os mais utilizados em ciências sociais são: 5%, 1%, 0,1% e 0,01%) significa que existe essa probabilidade de os resultados terem surgido por acaso;

Como regra geral, utilizam-se testes paramétricos quando:

· dados têm um verdadeiro valor numérico.

· os dados na amostra/s se encontram agrupados em torno da média ou de medidas de tendência central (isto é conhecido como homogeneidade).

· o tamanho da amostra/s é grande e aproximadamente igual.

Uso de testes não-paramétricos quando:

· os dados não têm um verdadeiro valor numérico; por exemplo, como a produzida por escalas de Likert, onde temos uma medida ordinal e, por isso, os números não têm quaisquer propriedades matemáticas.

· a dispersão dos dados indica uma grande variabilidade.

· o tamanho da amostra é pequeno ou desigual.

Testes paramétricos, são mais poderosos, no entanto, só devem ser usado quando as distribuições são normais e os desvios-padrão das amostras são mais ou menos semelhantes, caso contrário, é mais seguro utilizar testes não-paramétricos.

Testes de correlação

Existe ambigüidade se estes testes são considerados como uma estatística descritiva ou inferencial. Estes testes permite-nos verificar se existe relação entre duas variáveis. Obter uma forte correlação, não significa que exista uma relação causal entre as variáveis, mas as correlações também podem ser usadas para fazer previsões sobre resultados. Os testes mais utilizados são:

· Ró de Spearman (teste não-paramétrico);

· Coeficiente de correlação de Pearson (teste paramétrico).

Testes de diferença para variáveis emparelhadas (medidas repetidas)

Estes testes são usados quando queremos estudar diferenças significativas entre dois conjuntos de dados do mesmo grupo de sujeitos.

· Teste do sinal, compara os valores de uma variável ordinal em duas condições entrando com o sinal das diferenças. Pode ser útil em estudos de observação ou estudos de questionário onde exista um critério de emparelhamento.

· Teste de Wilcoxon, o mais poderoso teste para diferenças entre variáveis emparelhadas, entra não só com o sinal das diferenças mas também com a sua ordem.

· Teste T-Student, há duas versões do t-teste para variáveis emparelhadas e para grupos independentes.O teste t para medidas repetidas compara os valores de uma variável intervalar ou rácio em duas condições de emparelhamento, trabalha com a média e a distribuição dos dados em torno da média para ambas as condições. Para n < 30 exige que se verifique a normalidade das variáveis.

Testes de diferença para grupos independentes

· Teste de Mann-Whitney (teste não-paramétrico) é o mais utilizadoquando se tem grupos independentes e grupos de tamanhos irregulares; aplica-se na relação entre uma variável ordinal com uma dicotómica. Alternativa ao teste t.

· Teste t compara as médias de uma variável quantitativa ou de um conjunto de variáveis quantitativas relacionadas entre si, numa variável dicotómica.

Testes de ajustamento (aderência)

· Teste Qui-quadrado, , compara as categorias de uma variável nominal e pode ser utilizado em situações onde se tem simplesmente observações ou dados categóricos (por exemplo, sim/não resposta a um questionário). Colocam-se esses dados numa tabela de contingência e, em seguida, aplica-se o teste qui-quadrado, comparando-se se os valores observados são significativamente diferentes dos valores esperados.

28
Mar 10









Tratamento de dados: conselhos práticos e passos a seguir


 


1 - Registar e seguir dados


 Como: Elaborar um registo/diário completo de todos os sujeitos abordados para participar no estudo.


Porque se faz: permite registar datas em que foram abordados; ver se cumpriam os critérios para participar no estudo; ver se deram o seu consentimento por escrito.


Objectivo: Seguir a inscrição dos sujeitos e determinar se o grupo resultante é representativo da população que o investigador pretende estudar. Em alguns ambientes de estudo (programas de tratamento médico, escolas, organizações) é possível para o investigador obter informação adicional em sujeitos elegíveis para o estudo mas que não foram recrutados, seja porque escolheram não participar, seja porque não foram abordados pelo investigador, tornando possível que o investigador determine se a amostra é representativa da população.


Adicionalmente ao diário de recrutamento dos sujeitos, um sistema bem delineado para seguir os sujeitos pode dar ao investigador informações actualizadas sobre o estado geral do estudo, incluindo participação dos sujeitos, recolha de dados e registo de dados.


 2 - Selecção de dados


 Quando: Feita imediatamente à recolha de dados mas antes do registo dos dados, para seleccionar a sua relevância.


Objectivos: Ver se as respostas são legíveis e compreensíveis; Ver as respostas que se encontram dentro dos limites aceitáveis para o estudo; Ver se as respostas são completas; Verificar se toda a informação foi incluída.


Porque se faz: para ver se há necessidade de contactar novamente com os sujeitos com vista a corrigir omissões, erros ou inadequações.


Como: recolhendo os dados com a ajuda de programas de avaliação computorizados (SPSS, etc).


Permitem: programação para aceitar respostas dentro de determinados parâmetros, verificar campos deixados em branco ou fazer verificação cruzada de respostas entre determinados itens para detectar inconsistências; transferência de dados para uma base de dados permanente, automatizando o procedimento de entrada de dados.


 3 - Construir uma base de dados


 Como: criar um livro de código dos dados


O que é: Lista escrita ou computorizada que dê uma descrição completa e clara das variáveis que vão ser incluídas na base de dados.


Importância: essencial quando o investigador começa a analisar os dados; serve de guia para que ao reanalisar determinados dados não fique “encalhado”  a tentar lembrar-se o que significa o nome de uma determinada variável ou que dados foram usados para determinada análise;


 Deve conter, no mínimo para cada variável:


Nome da variável;


Descrição da variável;


Formato da variável (número, data, texto)


Instrumento ou método de recolha


Data de recolha


Respondente ou grupo


Localização da variável (na base de dados)


Notas


 4 - Entrada de dados


 Como: usar programas de base de dados (Excel, Acess, SPSS) que permitem definir a gama, formatos  e tipos de dados que podem ser aceites em determinados campos, o que poupa tempo na inserção de dados que não estejam dentro desses parâmetros e que não serão aceites pelo programa.


 5 - Transformar dados


 Envolve:


Identificação e codificação de valores em falta


Computar totais e novas variáveis


Reverter itens de escalas


Recodificar e categorizar


 Identificação e codificação de valores em falta


Os valores em falta resultam de sujeitos que não responderam, observações falhadas, dados incorrectos rejeitados pela base de dados.


Para que não enviezem os resultados programas estatísticos como o SPSS dão a hipótese de ignorar os casos de variáveis em falta ou tratar automaticamente valores em falta cmo estando em branco.


 Computar totais e novas variáveis


 Pode ser necessário criar novas variáveis baseadas em valores de outras variáveis.


Exemplo:


Um investigador tem dados sobre o número total de vezes que os clientes necessitando de dois tratamentos diferentes foram aos tratamentos em cada mês.


O investigador fica com um total de 4 variáveis, cada uma representando o número de sessões frequentadas em cada semana durante o primeiro mês de tratamento, chamemos de q1, q2, q3, q4.


Se o investigador quisesse analisar a frequência mensal dos diferentes tratamentos tinha de computar uma nova variável:


Total=q1+q2+q3+q4


 Reverter itens de escalas


 Objectivo: fazer diminuir a propensão dos sujeitos de darem a mesma resposta padronizada.


Exemplo: Os participantes de um estudo têm de indicar os níveis de concordância de 1 a 5 com uma série de afirmações. 1= descordo completamente e 5 = concordo completamente.


O investigador pode decidir reverter a escala em alguns itens para que 1 = concordo completamente e 5 = descordo completamente. Isto pode reduzir as respostas automáticas e padronizadas.


Cuidados a ter: antes de analisar os dados é necessário recodificar os itens revertidos para que as respostas sigam a mesma direcção.


 Recodificar variáveis


 Algumas variáveis podem ser mais facilmente analisadas e interpretadas se recodificadas em categorias.


Exemplo: Tornar uma variável contínua numa variável categorial. Um investigador pode querer agrupar dentro de limites específicos variáveis como a idade ou rendimentos monetários. 

Marczky, G.; DeMatteo, D. & Festinger, D. (2005). Essentials of Research Design and Methodology. John Wiley and Sons, Inc. Hoboken, New Jersey


P.S. Continuo a ter de "mendigar" computador uma vez que o meu ainda não veio do arranjo e o  velho iMac não aguenta estas modernidades!









Norton, L. S. (2009). Action Research in Teaching and Learning. A practical guide to conducting pedagogical research in universities. Routledge e Taylor & Francis e-Library. Oxon and New York.

7. Como pode analisar os dados qualitativos na pesquisa-acção pedagógica?

A análise qualitativa é útil em estudos de pesquisa onde:

• pouco é conhecido sobre a área de investigação e a questão de pesquisa está moldada para permitir a descoberta de novas informações;

• é pedido uma compreensão mais profunda do ponto de vista da pessoa que está a ser pesquisado;

• é necessária mais informações, mas detalhes (que podem ser difíceis de quantificar), que podem ser obtidos a partir de perguntas abertas para amplificar as respostas ao questionário;

• existem fontes como os diários, as tarefas dos alunos, gravações em vídeo ou relatórios.

O seu principal objectivo é conhecer totalmente a parte subjectiva do desempenho do pesquisador, não apenas na recolha de dados, mas também na forma como os analisa e interpreta.

O autor refere vários tipos de análise qualitativa, por exemplo:

• Grounded Theory (descobrindo a teoria / hipótese a partir dos dados);

• Análise do discurso (análise dos significados subjacentes no discurso / texto);

• Semiótica (estudo dos signos, ou seja, palavras, imagens, sons, gestos e objetos);

• Investigação fenomenológica interpretativa (compreender a perspectiva do indivíduo e experiência).

Concentrou-se na descrição de dois métodos:

• Análise temática (procura de padrões);

• Análise de conteúdo (que descreve como meio caminho entre a análise qualitativa e quantitativa).

Análise temática (procura de padrões)

Refere que este processo pode ter outras variações, mas é sempre fundamental a aplicação cuidadosa da reiteração e codificação dos temas e categorias. Considera que nesta análise, não há perda de rigor numa interpretação subjectiva, desde que se especifique as etapas que se tomaram para fazer essa análise e interpretação, que dá uma compreensão profunda do tema que se está a pesquisar do ponto de vista do participante. Este método concretiza-se em 7 fases:

Fase 1, Imersão – após a primeira leitura das transcrições do todo das entrevistas e não só das respostas, deve-se anotar os temas gerais que foram observados.

Fase 2, Gerar categorias – leitura muito mais atenta de cada transcrição de modo a permitir a criação de categorias, tantas quantas as possíveis, assim como uma designação que melhor descreva cada uma.

Fase 3, Excluir categorias – por exemplo, excluir categorias com um ou dois exemplos ou cujos temas se sobreponham consideravelmente. No entanto, dado a subjectividade deste processo e desde que justificado devidamente, pode-se manter uma categoria com apenas uma ou duas respostas, por exemplo, se for mais fiel à análise da pesquisa.

Fase 4, Fundir categorias – olhar de novo para as categorias, refinar e descrever os temas com mais precisão, reclassificando-os (cerca de 10 a 15 categorias)

Fase 5, Verificar temas – reler as transcrições com a lista de categorias ao lado, analisar a existência de ambiguidade e, se necessário, descobrir uma terminologia mais precisa.

Fase 6, Unir temas – tendo em mente o objectivo da investigação, anotar as relações que existem entre os seus temas, procurando padrões que façam sentido e permitam encontrar uma explicação coerente e convincente para explicar os dados.

Fase 7, Apresentar as conclusões – seleccionar os dados mais importantes da investigação e apresentar uma narrativa analítica sobre a forma como os exemplos estão ligados entre si.

análise de conteúdo (meio caminho entre a análise qualitativa e quantitativa)

o autor considera que este método combina a busca de significados e uma compreensão mais profunda do tema a pesquisar, com a capacidade de realizar alguns procedimentos quantitativos.

Taxonomia SOLO de Biggs e Collis '(1982) permite ver se o nível de compreensão está relacionada com o grau redacção dada. Esta taxonomia encontra-se descrita segundo 5 níveis: pré-estrutural, uni-estrutural, multi-estrutural, relacional e resumo alargado.

A análise de conteúdo tem uma abordagem para formular o tema mais objectiva do que a análise temática utilizando medidas quantitativas para o fazer. Concretizam-se 5 fases neste método:

Fase 1, Decidir sobre a unidade de análise – que unidades de análise usar: palavras, frases, parágrafos, … dependendo da questão de pesquisa.

Fase 2, Dividir as transcrição em unidades de análise

Fase 3, Construção de categorias (o mesmo das fases 1 a 5 da análise temática)

Fase 4, Atribuir as unidades de análise às categorias (codificação) – todas as unidades têm de ser incluídas numa categoria, mas nenhuma pode aparecer em mais que uma categoria.

Fase 5, Calcular a percentagem de unidades de informação em cada categoria (aplicar a análise estatística a estes dados, para aprofundamento do estudo).


 


26
Mar 10

Norton, L.S. (2009). Action Research in Teaching and Learning. A practical guide to conducting pedagogical research in universities. Routledge e Taylor & Francis e-Library. Oxon and New York.


 


Logo na fase de concepção da proposta de investigação deve-se dar uma ideia detalhada da análise dados que se pretende fazer, devendo esta estar em conformidade com o objectivo principal do estudo e objectivos específicos. Se se está a planear utilizar a análise estatística, deve-se justificar os testes que se pretende usar (por exemplo, paramétricos ou não-paramétricos, o nível de significância estatística a ser definido, …). Se se está a pensar usar a análise de dados qualitativos, deve-se dar o máximo de informações possíveis relativas aos dados (codificação, classificação, categorização e/ou verificação) assim como descrever as regras ou princípios gerais que irão conduzir a análise proposta (por exemplo, teoria fundamentada, a análise do discurso, …).

Posteriormente, o autor descreve alguns princípios básicos de pesquisas, experiências e estudos de observação, como os métodos de investigação mais utilizados em pesquisa quantitativa e alguns princípios básicos da análise temática e análise de conteúdo, que mais frequentemente são utilizadas em pesquisas qualitativas.

Por exemplo, nos questionários considera que se tem três tipos principais de perguntas:

- as perguntas abertas cuja análise mais comum seria a temática ou análise de conteúdo;

- as perguntas fechadas que apesar de se perder precisão têm a vantagem se ser mais fácil de analisar; através da estatística descritiva, tais como contagens de frequência ou representação gráfica que são as formas mais simples, entre outras;

- pergunta híbrida, uma pergunta que define categorias e também tem uma categoria "outros" para os respondentes cujas respostas não se encaixam facilmente nas categorias pré-determinadas. Desta forma, preserva-se a análise dos métodos anteriores.

Na pesquisa experimental, cujo objectivo é estabelecer uma causa efeito, normalmente o pesquisador começa com uma hipótese e, em seguida, projecta uma experiência para a testar. Neste tipo de experiência pode-se utilizar grupos independentes (por exemplo, um grupo recebe algum tipo de intervenção e outro é grupo de controlo) ou grupos emparelhados ou medidas repetidas (os mesmos participantes são medidos por duas vezes, antes e depois da intervenção). Os métodos quantitativos e análise estatística irão permitir interpretar a significância estatística dos resultados.

Na pesquisa observacional (observação directa, observação naturalista e observação participante), sempre que são utilizados vários observadores deve-se calcular uma medida de confiabilidade entre avaliadores, pelo menos, uma amostra dos comportamentos de interesse, para resolver o problema de viés do observador. Os dois métodos mais utilizados são o percentual de concordância e coeficiente kappa de Cohen. O primeiro método é o rácio entre o número de vezes que os dois observadores concordam dividido pelo número total de avaliações realizadas. De um modo geral, considerada necessário haver 70% de acordo entre os observadores, suficiente ter 80% e 90% é considerado bom. No coeficiente de kappa de Cohen, mais de 0,8 é um bom acordo, é considerado substancial se está entre 0,6 e 0,8, é moderado para valores entre 0,4 e 0,6 e entre 0,2 e 0,4 é justo.

As pesquisas correlacionais, não são um método de investigação, mas uma técnica estatística, são usadas para mostrar se existe uma relação entre dois comportamentos independentes ou medidos. A força de uma correlação pode ser calculada estatisticamente pelo coeficiente de correlação. Quanto mais próximo o coeficiente de correlação está de 1, mais forte a relação positiva, e quanto mais próximo o coeficiente de correlação está de -1, a relação é forte negativa. Quando o coeficiente de correlação está próxima de 0, há muito pouca ou nenhuma relação. É importante deixar claro que as correlações não implicam causa e efeito, eles só podem inferir uma relação, mas podem ser úteis para determinar se o que está acontecer é suficientemente confirmado para justificar uma investigação mais aprofundada.

 

 


Efectivamente muito temos produzido sobre análise de dados. Foram aqui sintetizadas perspectivas de diferentes autores sobre análise quantitativa e qualitativa. A primeira pergunta que me assola neste momento é: “O que é que faço agora com tanta informação para processar?” É curioso que as leituras sobre análise de conteúdo além de serem essenciais para o produto final (a construção da wiki) também me parecem sê-lo para o processo que temos de encetar. Teremos, em primeiro lugar que organizar os dados, tentando encontrar pontos de entendimento entre os diferentes autores e proceder à categorização que, a meu ver, não é mais do que a estrutura da wiki. Posteriormente, tentaremos reorganizar todos estes resumos em unidades de dados que facilitem a construção de um produto final objectivo, coerente, coeso e claro. Será caso para dizer “E esta hem?!"

 

Segundo Bogdan e Bilken (1991: 205) a análise de dados é um “processo de busca e de organização sistemático de (…) materiais que foram sendo acumulados, com o objectivo de aumentar a sua própria compreensão” .
Este processo consubstanciar-se-á em diferentes fases:
·         Organização dos dados;
·         Divisão dos dados em unidades manipuláveis;
·         Procura de padrões;
·         Descoberta de aspectos importantes.
Dado existirem diversas formas de trabalhar os dados resultantes de uma investigação qualitativa, os autores distinguem entre dois tipos de abordagem:
1.      Análise concomitante com a recolha de dados
2.      Análise após a recolha de dados
Análise concomitante com a recolha de dados
Os autores não recomendam esta abordagem a investigadores com pouca experiência, embora reconheçam que existe sempre alguma análise que tem de ser feita no momento de recolha de dados. Assim, são apresentadas algumas sugestões no sentido de tornar o processo de análise mais eficiente:
·         Fazer escolhas que contribuam para afunilar o âmbito do estudo e consequentemente recolher dados mais precisos e centrados num contexto ou sujeito(s) específico(s).
·         Optar por um modelo investigativo, na medida em que este condiciona o processo encetado daí em diante.
·         Elaborar questões de natureza aberta e analítica. A formulação de questões é que orienta o processo de recolha e análise de dados, logo deverão estar intimamente relacionadas com o estudo que se pretende levar a cabo. Num estudo qualitativo, as questões devem ser mais orientadas para processos e significados do que para aspectos como causas ou efeitos.
·         As sessões de recolha de dados devem ser planificadas no sentido de responder à questão “o que é que ainda não sei e pretendo saber?”. A reposta a esta questão poderá levar à necessidade de proceder a reajustes ao plano inicialmente elaborado.
·         O investigador deve registar notas / comentários, especular , estimulando o pensamento crítico sobre o que observa.
·         Redacção periódica de memorandos, num estilo informal e livre, em que o investigador procura estabelecer ligações entre os dados que observou e as suas notas / comentários.
·         Confrontar os sujeitos observados ou, segundo os autores, “informadores-chave”, com a informação recolhida, no sentido de estes validarem os dados.
·         Proceder à revisão da literatura paralelamente ao trabalho de campo. Esta perspectiva contrasta com a de outros autores como Glaser, que consideram que a revisão teórica deve ser primeiro passo na investigação qualitativa. O investigador não deve deixar que as leituras efectuadas funcionem como inibidoras do pensamento crítico.
·         Expandir os horizontes analíticos através da utilização de metáforas.
·         A utilização de auxiliares visuais como diagramas, tabelas e matrizes poderão também facilitar o processo de análise.
 
Análise após a recolha de dados
·         Desenvolvimento de categorias de codificação – findo o processo de recolha é necessário organizar a informação de acordo com um esquema que tem de ser desenvolvido. A criação de um sistema de codificação inicia-se com diversas leituras da informação recolhida no sentido de regularidades, padrões, temas recorrentes, procurando palavras ou frases capazes de os sistematizar. Estas palavras ou frases apelidam-se de categorias de codificação. Estas categorias são influenciadas quer pelas questões de investigação, quer pelos objectivos. Ainda assim, os autores apresentam exemplos de códigos, no sentido de ilustrar como é que a informação pode ser codificada:
o        Códigos de contexto: nomeadamente bibliografia descritiva.
o        Códigos de definição da situação: como as percepções dos sujeitos sobre situações ou tópicos particulares.
o        Perspectivas tidas pelos sujeitos: que incluem normas, regras  e pontos de vista partilhadas.
o        Pensamentos dos sujeitos sobre pessoas e objectos: relacionados com as percepções que os sujeitos têm uns dos outros.
o        Códigos de processo: muito utilizados nas histórias de vida, referem-se a categorização de sequências de acontecimentos, alterações ao longo do tempo.
o        Códigos de actividade: relacionam-se com tipos de comportamentos de carácter regular.
o        Códigos de acontecimento: apontam para casos particulares ou com escassa incidência.
o        Códigos de estratégia: “referem-se a tácticas, métodos, caminhos, técnicas, manobras e outras formas conscientes de as pessoas realizarem várias coisas” (p. 227).
o        Códigos de relação e de estrutura social: relacionadas com padrões de comportamento entre pessoas (amizade, coligações, romances)
o        Códigos de métodos: como por exemplo os comentários do investigador.
o        Sistemas de codificação preestabelecidos
 
As formas de trabalhar os dados
O primeiro passo consiste em organizar todo o material de modo a facilitar a sua consulta. Passa-se, de seguida, ao desenvolvimento de categorias de codificação, a que é, posteriormente, atribuído um código (número, abreviatura). O etapa seguinte caracteriza-se pela estruturação do material em unidades de dados. As unidades de dados tanto podem ser constituídas por um parágrafo, como uma frase, ou um conjunto de parágrafos. Muitas vezes há uma sobreposição de unidades de dados, uma vez que os dados cabem em mais do que uma categoria.
 
 
 









Stake, R. (2009). A arte da investigação com estudos de caso. Lisboa. Fundação Calouste Glubenkian.





 



Segundo Stake a triangulação consiste em protocolos que permitem a procura de rigor e explicações alternativas. Por vezes através de observações adicionais é necessário rever uma interpretação.


Existem segundo Norman Denzin quatro protocolos:


Triangulação das fontes de dados: permite verificar se o que estamos a observar a relatar se mantém inalterado em circunstâncias diferentes;


Triangulação do investigador: consiste em outros investigadores observarem o mesmo fenómeno e apresentarem as observações (com ou sem a sua interpretação) proporcionando o debate interpretações alternativas,


Triangulação da teoria: consiste na escolha de co-observadores, pois permite comparar diferentes interpretações. Significados alternativos podem ajudar os leitores a compreender o caso;


Triangulação metodológica: consiste em utilizar várias abordagens, que permitem real realçar ou invalidar algumas influências exteriores.


Para Denzin e muitos investigadores qualitativos, os protocolos de triangulação passaram a ser uma busca de interpretações adicionais mais do que a confirmação de um único significado (Flick, 1992)” (Também concordo com esta afirmação)


Para que o leitor possa triangular, a descrição do caso terá que apresentar um corpo substancial de descrição incontestável. O relato deverá ser muito minucioso, relatando-se por vezes o que o leitor já conhece, assegurando-lhe que a descrição está correcta. Contudo para qualquer afirmação descritiva e interpretação poderá ser necessário a triangulação.



Situação dos Dados



Necessidade de Triangulação



Descrição incontestável



Precisa de pouco esforço para a confirmação



Descrição dúbia e contestada



Precisa de confirmação



Dados importantes para uma asserção



Precisa de esforço extra para a confirmação



Interpretações - chaves



Precisa de esforço extra para a confirmação



Convicções do autor, assim identificadas



Precisa de pouco esforço para a confirmação



Tabela (p. 125)


Em estudos de caso os actores ajudam a triangular as observações e as interpretações do investigador.


Poder podia... Mas não era a mesma coisa!


O teste t pode distinguir-se em duas vertentes:


Teste t para amostras não relacionadas:


Compara as médias de uma variável para dois grupos de casos independentes, ou seja, grupos entre os quais não há relação no que toca a pessoas ou objectos.


Pode ser utilizado quando o número de casos é bastante pequeno.


Ex: Permite saber se a taxa de colesterol de um gestor é a mesma da população em geral; se os licenciados trabalham 40 horas por semana em média, etc.


Teste t para amostras relacionadas


Compara as médias de duas variáveis para um mesmo grupo.


Ex: Comparar a tensão arterial de um grupo de indivíduos antes e depois de um tratamento.


As variáveis a comparar são a tensão arterial antes do tratamento e depois do tratamento.


Cenário alternativo: Comparação entre um grupo de sujeitos e um grupo de controlo.


Num estudo sobre tensão arterial, o sujeito e o seu par de controlo poderiam ser emparelhados por idade.


Pereira, A. (2006). Guia prático de utilização do SPSS - Análise de dados para Ciências Sociais e Psicologia. Edições Sílabo, lda. Lisboa;


Março 2010
Dom
Seg
Ter
Qua
Qui
Sex
Sab

1
2
3
4
5
6

7
8
9
10
11
12
13

14
15
16
17
18
19
20

21
27



subscrever feeds
arquivos
pesquisar
 
blogs SAPO