Teses em Geofísica (Doutorado) - CPGF/IG
URI Permanente para esta coleçãohttps://repositorio.ufpa.br/handle/2011/2357
O Doutorado Acadêmico pertente a o Programa de Pós-Graduação em Geofísica (CPGF) do Instituto de Geociências (IG) da Universidade Federal do Pará (UFPA).
Navegar
Submissões Recentes
Tese Acesso aberto (Open Access) Solução da equação de Archie com algoritmos inteligentes(Universidade Federal do Pará, 2011) SILVA, Carolina Barros da; ANDRADE, André José Neves; http://lattes.cnpq.br/8388930487104926A equação de Archie é um marco histórico da Avaliação de Formação por ser a primeira relação envolvendo as propriedades físicas das rochas e as suas propriedades petrofísicas possibilitando a identificação e a quantificação de hidrocarbonetos em subsuperfície. A saturação de água é a solução da equação de Archie obtida a partir da medida da resistividade e da estimativa da porosidade da formação. No entanto, a solução da equação de Archie é não trivial, na dependência do conhecimento prévio da resistividade da água de formação e dos expoentes de Archie (cimentação e saturação). Esta tese apresenta um conjunto de algoritmos inteligentes inéditos, que possibilitam a solução da equação de Archie. Uma variação da rede neural competitiva, denominada como rede neural bicompetitiva realiza o zoneamento do poço, delimitando as camadas reservatório. Para cada camada reservatório, um novo algoritmo genético, com uma estratégia evolutiva baseada na reprodução de fungos produz estimativas para os parâmetros de porosidade da matriz (densidade, tempo de trânsito e porosidade neutrônica), que aliados a um novo modelo de rocha produzem estimativas realistas da porosidade, considerando os efeitos da argilosidade. Uma nova rede neural competitiva denominada como rede competitiva angular realiza a interpretação do Gráfico de Pickett fornecendo as informações da resistividade da água de formação e do expoente de cimentação. Todos os resultados da metodologia aqui apresentada são obtidos com dados sintéticos e perfis convencionais.Tese Acesso aberto (Open Access) Post-imaging analysis of pressure prediction in productive sedimentary basins for oil and gas exploration(Universidade Federal do Pará, 2015-05-26) VIEIRA, Wildney Wallacy da Silva; LEITE, Lourenildo Williame Barbosa; http://lattes.cnpq.br/8588738536047617Esta tese tem vários aspectos relacionados à modelagem de bacia sedimentar na exploração de óleo e gás, e com duas divisões gerais: estimativa de parâmetros, e predição de pressão. Para a estrutura do presente trabalho, o primeiro tópico está relacionada com a análise de velocidade e meios efetivos, onde se estima uma distribuição para a velocidade da onda P no tempo, seguido da transformação para a profundidade, e usar um modelo efetivo para a densidade e para a distribuição de velocidades da onda S. A razão para esta focalização inicialmente destas estimativas é porque eles representam a principal informação de base que se pode ter a partir do domínio sísmico, de onde os outros parâmetros sísmicos podem ser calculados, e que serve de base para a segunda parte deste trabalho. O segundo tópico está relacionado à cálculo de tensão, deformação e pressão na subsuperfície utilizando os dados das velocidades das ondas P e S e os modelos de densidade, com a finalidade de localizar áreas de altas e baixas pressões que atuam como bombas de sucção naturais para a mecânica da acumulação de óleo e gás em zonas produtivas e camadas reservatórios. Destacamos na segunda parte para a apresentação, chamar atenção para a sensibilidade do mapeamento de pressão em função da variação de velocidade e densidade. Classificamos a primeira divisão como dedicado ao processamento e imageamento sísmico convencional, e nomeamos a segunda divisão como predição de tensão-deformação-pressão pós-imageamento. Como o objetivo final da geofísica é obter imagens da subsuperfície sob diferentes propriedades, o cálculo de tensão só faz total sentido para o caso de dados reais, e isto faz com que os dados adquiridos seja obrigatoriamente em três componentes. Uma conclusão importante dos experimentos numéricos, mostramos que a pressão não tem um comportamento trivial, uma vez que pode diminuir com a profundidade e criar bombas naturais responsáveis pelo acúmulo de fluidos. A teoria de meios porosos baseia-se integralmente em geometria diferencial, porque esta disciplina matemática lida com propriedades geométricas coletivos para reservatórios reais. Mostrouse que tais propriedades coletivas são, nomeadamente, a porosidade, a área da superfície específica, a curvatura média e a curvatura Gaussiana. Por exemplo, meios fraturados tem, como regra, uma pequena porosidade, mas área da superfície específica muito grande, o que cria a razão 𝛾 = 𝑣𝑆/𝑣𝑃 anômala e alta, e isto significa um coeficiente de Poisson, 𝜎, negativo. Outra conclusão é relacionado ao cálculo da descontinuidade de pressão entre sólido e líquido, o que depende da estrutura de poros.Tese Acesso aberto (Open Access) Estimativa de parâmetros em meios VTI usando aproximações de sobretempo não hiperbólicas(Universidade Federal do Pará, 2015-09-30) PEREIRA, Rubenvaldo Monteiro; CRUZ, João Carlos Ribeiro; http://lattes.cnpq.br/8498743497664023Meios transversalmente isotrópicos (TI) representam um modelo mais realístico para processamento de dados sísmicos, por exemplo, em meios fraturados com direção de fratura preferencial ou meios composto de finas camadas. Em especial, os meios TI com eixo de simetria vertical (VTI) são amplamente usados como modelos para propagação de ondas qP em folhelhos, rocha abundante em reservatórios de hidrocarbonetos. Contudo, a propagação de onda qP, em meios homogêneos VTI, tem como características, depender de quatro parâmetros de rigidez e, também, por possuir: equação de velocidade de fase algebricamente complicada, equação de velocidade de grupo difícil de explicitar, e equação moveout não hiperbólica. Por isso, vários autores tem apresentado reparametrizações e obtido aproximações para estas equações dependendo somente de três parâmetros. Dentre estas, as aproximações de sobretempo têm sido amplamente usadas em métodos inversos para estimar parâmetros litológicos em meios homogeneos VTI. Tais métodos têm, em geral, obtido sucesso na estimativa da velocidade de empilhamento normal moveout vn e do parâmetro de anelipticidade η, pois somente estes são necessários para se gerar modelos iniciais, para realizar as fases do processamento no domínio do tempo. Um dos métodos mais utilizados para se estimar parâmetros é a análise de velocidade baseada em semblance, porém, devido este método ser limitado a seções com pequena razão offset-profundidade, adaptações para meios anisotrópicos, considerando aproximações de sobretempo não hiperbólicas, são necessárias . Outra limitação da medida semblance é sua perda de precisão sob grandes variações na amplitude com o afastamento e sob inversão de fase. Devido a isto, vários autores têm modificado a medida semblance como formas de compensar estas variações. Neste trabalho, baseado na aproximação anelíptica shifted-hyperbola, apresento aproximações anelípticas racionais para as velocidades de fase e grupo, bem como aproximações de sobretempo não hiperbólicas, em meios homogêneos VTI, horizontalmente estratificados. A validade destas aproximações é feita comparando os respectivos erros relativos destas aproximações aos erros relativos de outras aproximações conhecidas da literatura. Análise de velocidades baseada em semblance é realizada para aferir a precisão das aproximações racionais de sobretempo na estimativa de parâmetros em meios VTI. Os resultados obtidos demonstram o grande potencial das aproximações racionais em problemas inversos. Visando adaptar para meios VTI, nós modificamos duas medidas de coerência por semblance, as quais são sensíveis à variações de amplitude e fase. A precisão e robustez das medidas de coerência adaptadas são validadas estimando parâmetros anisotrópicos em meios VTI.Tese Acesso aberto (Open Access) Seismic amplitude analysis and quality factor estimation based on redatuming(Universidade Federal do Pará, 2015-04-25) OLIVEIRA, Francisco de Souza; FIGUEIREDO, José Jadsom Sampaio de; http://lattes.cnpq.br/1610827269025210A correção de amplitude é uma tarefa importante para corrigir a dissipação de energia sísmica por espalhamento geometrico ou atenuação durante a propagação da onda acústica / elástica em sólidos. Neste trabalho, propomos uma forma de estimar o fator de qualidade dos dados de reflexão sísmica, com uma metodologia baseada na combinação do método de deslocamento da frequência de pico (PFS) e do operador de redatumação. A contribuição deste trabalho está em corrigir os tempos de trânsito quando o meio é formado por muitas camadas. Em outras palavras, a correção da tabela de tempo de trânsito utilizada no método PFS é realizada utilizando um operador de redatumação. A operação proposta, é realizada de forma iterativa, com isto, permitindo estimar o fator de qualidade Q, camada por camada de um modo mais preciso. A operação de redatumação é usada para simular a aquisição de dados em novos níveis, evitando distorções produzidas por irregularidade próximas da superfície relacionadas com a geometria ou com as propriedades de heterogeneidade do meio. Propomos uma aplicação do operador de redatumação Kirchhoff em verdadeira ampilitude (TAKR) em meios homogêneos e comparamos com o operador de redatumação Kirchhoff convencional (KR) restrito ao caso de afastamento nulo. Nossa metodologia é baseada na combinação do método de deslocamento da frequência de pico e o operador de redatumação (TAKR com peso igual a 1). Aplicação em dados sintéticos e em dados reais sísmico (Viking Graben) e GPR(Siple Dome) demonstra a viabilidade de nossa análise.Tese Acesso aberto (Open Access) Caracterização de fraturas em imagens de amplitude acústica utilizando morfologia matemática(Universidade Federal do Pará, 2013) XAVIER, Aldenize Ruela; GUERRA, Carlos Eduardo; http://lattes.cnpq.br/7633019987920516; ANDRADE, André José Neves; http://lattes.cnpq.br/8388930487104926As análises de fraturas na caracterização de reservatórios carbonáticos são de particular interesse, uma vez que as fraturas constituem o mais importante ambiente de armazenamento e produção de hidrocarbonetos nesses reservatórios. Particularmente, no Brasil cresce o interesse na caracterização dos reservatórios carbonáticos, com as recentes descobertas do pré-sal. As ferramentas de imageamento acústico fornecem informações valiosas sobre a amplitude das ondas refletida na parede do poço que, podem ser interpretadas de modo a possibilitar a caracterização das fraturas presentes. No entanto, surgem alguns problemas em função da natureza qualitativa da interpretação destas imagens, que são, basicamente, realizadas com a utilização da visão e da experiência do intérprete. Este trabalho apresenta uma metodologia para a realização da análise de fraturas nas imagens acústicas que pode ser dividida em três fases. Na primeira é apresentado o modelamento das imagens, que permite inferir o comportamento das fraturas nos diversos ambientes geológicos. Na segunda etapa é utilizada a morfologia matemática, que atua na forma de um detector de borda e realiza a identificação das fraturas na imagem acústica. A última etapa trata com a extração dos atributos geométricos ou da determinação da atitude das fraturas com a adoção de um polinômio interpolador de 4º grau segundo o critério dos mínimos quadrados. A avaliação desta metodologia é realizada com imagens geradas pelo modelo apresentado que corrobora a caracterização das fraturas realizadas em imagens reais.Tese Acesso aberto (Open Access) Modelagem eletromagnética 2.5-D de dados geofísicos através do método de diferenças finitas com malhas não-estruturadas(Universidade Federal do Pará, 2014-10-23) MIRANDA, Diego da Costa; RÉGIS, Cícero Roberto Teixeira; http://lattes.cnpq.br/7340569532034401; HOWARD JUNIOR, Allen Quentin; http://lattes.cnpq.br/6447166738854045Apresentamos a formulação eletromagnética em geometria 2.5-D aplicada à modelagem do marine controlled-source electromagnetic (mCSEM) através do método de Diferenças Finitas. Utilizamos a separação dos sinais primário e secundário para evitar problemas de singularidade devido à característica pontual da fonte eletro-magnética, o dipolo elétrico. As componentes do campo eletromagnético são derivadas dos resultados obtidos para os potenciais vetor magnético e escalar elétrico, calculados em todo o domínio do problema, o qual deve ser completamente discretizado para o uso do método de Diferenças Finitas. A limitação imposta pelo uso de malhas estruturadas no delineamento das geometrias presentes nos modelos geológicos, serviu como motivação para introduzirmos o uso de malhas não-estruturadas em nossos problemas. Essas malhas são completamente adaptáveis aos modelos com que trabalhamos, promovendo um delineamento suave de suas estruturas, e podendo ser localmente refinadas apenas nas regiões de interesse. Apresentamos também o desenvolvimento do método RBF-DQ, que faz uso da técnica de aproximação de funções por meio de combinações lineares das funções de base radial (RBF) e da técnica de quadraturas diferenciais (DQ) para a aproximação das derivadas de nosso problema diferencial. Nossos resultados mostraram que o uso do método de Diferenças Finitas com malhas-não estruturadas pode ser aplicado nos problemas de modelagem geofísica, promovendo uma melhoria na qualidade dos dados modelados quando comparados com os resultados obtidos através das técnicas tradicionais de Diferenças Finitas.Tese Acesso aberto (Open Access) Inversão de velocidades por otimização global usando a aproximação superfície de reflexão comum com afastamento finito(Universidade Federal do Pará, 2016-08-25) MESQUITA, Marcelo Jorge Luz; CRUZ, João Carlos Ribeiro; http://lattes.cnpq.br/8498743497664023A literatura geofísica recente tem mostrado que a construção de um modelo inicial mais realístico possível é a forma mais apropriada de se reduzir complicações do problema mal posto da inversão da forma da onda completa, e de fornecer as condições necessárias de convergência da função objetivo em direção ao mínimo global. Modelos otimizados são úteis como estimativas iniciais para métodos mais sofisticados de inversão e migração. Desenvolvo um método de inversão de velocidade da onda P usando dados sísmicos pré-empilhados para grandes afastamentos e baseado em medidas de coerência. A estratégia de inversão proposta é totalmente automática, baseada no cálculo do semblance e regida pela aproximação de tempo de trânsito paraxial, o chamado método da Superfície de Reflexão Comum com Afastamento Finito. Ela é realizada em dois passos, a princípio, usando raios imagens e o conhecimento de um modelo de velocidades conhecido a priori, determino as interfaces refletoras em profundidade a partir de seção migrada em tempo. A seguir, o modelo em profundidade gerado é usado como entrada na parametrização do modelo de velocidades, o qual é feito camada por camada. A estratégia de inversão é baseada na análise dos semblances calculados em cada ponto médio comum pelo método da Superfície de Reflexão Comum com Afastamento Finito. Para iniciar a inversão no segundo passo, a aproximação paraxial é feita pelo traçamento de raios no modelo de velocidades em profundidade obtido no primeiro passo. Usando a média aritmética dos semblances calculados em todos os pontos médios comuns como função objetivo, camada após camada, o algoritmo de otimização global Very Fast Simulated Annealing é aplicado para obter a convergência da função objetivo em direção ao máximo global. Ao aplicar a estratégia de inversão em dados sintéticos e reais, mostro a robustez do algoritmo de inversão proposto, produzindo modelos de velocidades da onda P otimizados a partir de dados pré-empilhados.Tese Acesso aberto (Open Access) Inversão da forma de onda orientada ao alvo(Universidade Federal do Pará, 2016-09-16) COSTA, Carlos Alexandre Nascimento da; COSTA, Jessé Carvalho; http://lattes.cnpq.br/7294174204296739Propomos uma nova metodologia de inversão da forma de onda orientada ao alvo para estimar os parâmetros físicos de uma área alvo em subsuperfície para dados sísmicos adquiridos com aquisição VSP-desviado ou com aquisição com fontes e receptores localizados na superfície. Além disso, investigamos a importância de eventos de múltiplos espalhamentos no conjunto de dados usados como inputs para estimar as respostas ao impulso da área alvo em subsuperfície iterativamente através de um esquema de inversão esparso para as mesma geometria de aquisição anteriormente citadas. Essas metodologias são baseadas no ajuste entre os campos de onda ascendente observado e modelado em um específico nível em profundidade próximo da área alvo, onde o campo de onda ascendente modelado é estimado através da representação tipo-convolução para função de Green. A principal característica de nossa metodologia de inversão da forma de onda orientada ao alvo é usar como inputs os campos de onda descendente e ascendente para estimar os parâmetros físicos locais sem necessitar que estes campos de onda sejam locais, dessa maneira evitamos adotar qualquer metodologia de redatumação para estimar as respostas ao impulso locais. Mostramos através de exemplos numéricos que podemos relaxar a necessidade de uma densa amostragem de fontes e receptores, característicos de esquemas de redatumação baseados em interferometria, para estimar as respostas ao impulso da área alvo através do esquema de inversão esparso usando como inputs os campos de onda com eventos de múltiplos espalhamentos. Estas metodologia são atraentes para dados sísmicos de aquisição VSP-desviado, pois para este tipo de dado não é necessário conhecer a região localizada acima da área alvo para estimar os campos de onda ascendente e descendente usados como inputs em ambas as metodologias. No entanto, para dados sísmicos adquiridos com fontes e receptores localizados na superfície, em princípio é necessário conhecer um modelo de velocidade a priori para estimar os campos de onda ascendente e descendente próximo da área alvo. Para ambas as metodologias investigadas, usamos a inversão da forma de onda baseada em migração para estimar os campos de onda ascendente e descendente próximo da área alvo a partir de dados sísmicos adquiridos com fontes e receptores na superfície.Tese Acesso aberto (Open Access) Structural constraints for image-based inversion methods(Universidade Federal do Pará, 2016-04-22) MACIEL, Jonathas da Silva; COSTA, Jessé Carvalho; http://lattes.cnpq.br/7294174204296739Esta tese apresenta duas metodologias de regularização estrutural para os métodos de análise de velocidade com migração e inversão conjunta com migração: regularização gradiente cruzado e filtragem com operadores morfológicos. Na análise de velocidade com migração, a regularização de gradiente cruzado tem como objetivo vincular os contrates de velocidade com o mapa de refletividade, através da paralelização dos vetores gradiente de velocidade com os vetores gradiente da imagem. Propõe-se uma versão com gradiente cruzado das funções objeto de minimização: Differential Semblance, Stack Power e Partial Stack Power. Combina-se a função Partial Stack Power com sua versão de gradiente cruzados, com o objetivo de aumentar gradativamente a resolução do modelo de velocidade, sem comprometer o ajuste das componentes de longo comprimento de onda do modelo de velocidade. Na inversão conjunta com migração propõe-se aplicar os operadores morfológicos de erosão e dilatação, no pré-condicionamento do modelo de velocidade em cada iteração. Os operadores usam o mapa de refletividade para delimitar as regiões com mesmo valor de propriedade física. Eles homogenizam a camada geológica e acentuam o contraste de velocidade nas bordas. Os vínculos estruturais não apenas irão reduzir a ambiguidade na estimativa do modelo de velocidade, mas tornará os métodos de inversão com migração mais estáveis, reduzindo artefatos, delineando soluções geologicamente plausíveis e acelerando a convergência da função objeto de minimização.Tese Acesso aberto (Open Access) Análise de processos oceanográficos no estuário do rio Pará(Universidade Federal do Pará, 2016-11-04) ROSÁRIO, Renan Peixoto; ROLLNIC, Marcelo; http://lattes.cnpq.br/6585442266149471Esta pesquisa de doutorado investigou processos oceanográficos físicos no estuário do Rio Pará, com foco no processo de intrusão salina e hidrodinâmica. A escolha desse tema surgiu a partir da necessidade de se consolidar o entendimento dos aspectos hidrodinâmicos e hidrográficos no estuário do Rio Pará, já que esta região da Zona Costeira Amazônica ainda se apresenta como um desafio à pesquisa. Um dos desafios consistiu em definir métodos e parâmetros para resolver diferentes escalas de espaço e tempo. Neste contexto, observações diretas no ambiente estuarino foram realizadas através de medições de intensidade e direção de correntes, perfis verticais e longitudinais de salinidade e temperatura, durante um período considerado de baixa descarga fluvial e outro de alta descarga fluvial. Além disso, de forma inédita, foi realizado durante um ano e dez meses o monitoramento da salinidade e nível de água (maré) em pontos estratégicos do estuário. As principais conclusões que esta pesquisa obteve a partir desse conjunto de dados foi a identificação da intrusão salina no estuário do Rio Pará, adentrando cerca de 100 km da foz. A sensibilidade da frente de salinidade está sujeita a variabilidade sazonal, devido a descarga fluvial, e variabilidade diária, devido à grande energia das marés na região. O transporte de Stokes, gerado pela propagação da onda de maré no estuário foi a parcela responsável pelo transporte de sal estuário acima, intensificando essa intrusão salina. A porção mais interna do estuário (mais de 60 km da foz) não existe circulação gravitacional e o transporte de sal estuário acima é realizado totalmente por difusão turbulenta; e na porção externa o fluxo resultante reverte com a profundidade e os processos advectivo e difusivos são importantes para contribuir para o transporte de sal no estuário.Tese Acesso aberto (Open Access) Atenuação de múltiplas pelo método WHLP-CRS(Universidade Federal do Pará, 2003-01-28) ALVES, Fábio José da Costa; LEITE, Lourenildo Williame Barbosa; http://lattes.cnpq.br/8588738536047617Nas bacias sedimentares da região Amazônica, a geração e o acúmulo de hidrocarboneto estão relacionados com a presença das soleiras de diabásio. Estas rochas magmáticas intrusivas possuem grandes contrastes de impedância com as rochas sedimentares encaixantes, resultando em múltiplas externas e internas, com amplitudes semelhantes às das reflexões sísmicas primárias. Estas múltiplas podem predominar sobre as informações oriundas de interfaces mais profundas, dificultando o processamento, a interpretação e o imageamento da seção de sísmica. O objetivo da presente tese é realizar a atenuação de múltiplas em seções sintéticas fontecomum (CS), através da combinação dos métodos Wiener-Hopf-Levinson de predição (WHLP) e o do empilhamento superfície-de-reflexão-comum (CRS), aqui denominando pela sigla WHLPCRS. O operador de deconvolução é calculado com as amplitudes reais do sinal sísmico e traço-a-traço, o que consideramos como uma melhor eficiência para a operação de atenuação. A identificação das múltiplas é feita na seção de afastamento-nulo (AN) simulada com o empilhamento CRS, utilizando o critério da periodicidade entre primária e suas múltiplas. Os atributos da frente de onda, obtidos através do empilhamento CRS, são utilizados na definição de janelas móveis no domínio tempo-espaço, e usados para calcular o operador WHLP-CRS. No desenvolvimento do presente trabalho, visamos evitar a inconveniência da seção processada ZO; desenhar e aplicar operadores na configuração CS; e estender o método WHL para camadas curvas.Tese Acesso aberto (Open Access) Tomografia eletromagnética para caracterização de reservatórios de hidrocarbonetos(Universidade Federal do Pará, 2003-10-03) BAPTISTA, João Júnior; RIJO, Luiz; http://lattes.cnpq.br/3148365912720676Na produção de petróleo é importante o monitoramento dos parâmetros do reservatório (permeabilidade, porosidade, saturação, pressão, etc) para o seu posterior gerenciamento. A variação dos parâmetros dinâmicos do reservatório induz variações na dinâmica do fluxo no reservatório, como por exemplo, perdas na pressão, dificultando o processo de extração do óleo. A injeção de fluidos aumenta a energia interna do reservatório e incrementa a pressão, estimulando o movimento do óleo em direção aos poços de extração. A tomografia eletromagnética poço-a-poço pode se tomar em uma técnica bastante eficaz no monitoramento dos processos de injeção, considerando-se o fato de ser altamente detectável a percolação de fluidos condutivos através das rochas. Esta tese apresenta o resultado de um algoritmo de tomografia eletromagnética bastante eficaz aplicado a dados sintéticos. O esquema de imageamento assume uma simetria cilíndrica em torno de uma fonte constituída por um dipolo magnético. Durante o processo de imageamento foram usados 21 transmissores e 21 receptores distribuídos em dois poços distanciados de 100 metros. O problema direto foi resolvido pelo método dos elementos finitos aplicado à equação de Helmhotz do campo elétrico secundário. O algoritmo resultante é válido para qualquer situação, não estando sujeito às restrições impostas aos algoritmos baseados nas aproximações de Born e Rytov. Por isso, pode ser aplicado eficientemente em qualquer situação, como em meios com contrastes de condutividade elétrica variando de 2 a 100, freqüências de 0.1 a 1000.0 kHz e heterogeneidades de qualquer dimensão. O problema inverso foi resolvido por intermédio do algoritmo de Marquardt estabilizado. A solução é obtida iterativamente. Os dados invertidos, com ruído Gaussiano aditivo, são as componentes em fase e em quadratura do campo magnético vertical. Sem o uso de vínculos o problema é totalmente instável, resultando em imagens completamente borradas. Duas categorias de vínculos foram usadas: vínculos relativos, do tipo suavidade, e vínculos absolutos. Os resultados obtidos mostram a eficiência desses dois tipos de vínculos através de imagens nítidas de alta resolução. Os tomogramas mostram que a resolução é melhor na direção vertical do que na horizontal e que é também função da freqüência. A posição e a atitude da heterogeneidade é bem recuperada. Ficou também demonstrado que a baixa resolução horizontal pode ser atenuada ou até mesmo eliminada por intermédio dos vínculos.Tese Acesso aberto (Open Access) Imageamento da porosidade através de perfis geofísicos de poço(Universidade Federal do Pará, 2004-01-27) MIRANDA, Anna Ilcéa Fischetti; ANDRADE, André José Neves; http://lattes.cnpq.br/8388930487104926O imageamento da porosidade é uma representação gráfica da distribuição lateral da porosidade da rocha, estimada a partir de dados de perfis geofísicos de poço. Apresenta-se aqui uma metodologia para produzir esta imagem geológica, totalmente independente da intervenção do intérprete, através de um algoritmo, dito, interpretativo baseado em dois tipos de redes neurais artificiais. A primeira parte do algoritmo baseia-se em uma rede neural com camada competitiva e é construído para realizar uma interpretação automática do clássico gráfico o Pb - ΦN, produzindo um zoneamento do perfil e a estimativa da porosidade. A segunda parte baseia-se em uma rede neural com função de base radial, projetado para realizar uma integração espacial dos dados, a qual pode ser dividida em duas etapas. A primeira etapa refere-se à correlação de perfis de poço e a segunda à produção de uma estimativa da distribuição lateral da porosidade. Esta metodologia ajudará o intérprete na definição do modelo geológico do reservatório e, talvez o mais importante, o ajudará a desenvolver de um modo mais eficiente as estratégias para o desenvolvimento dos campos de óleo e gás. Os resultados ou as imagens da porosidade são bastante similares às seções geológicas convencionais, especialmente em um ambiente deposicional simples dominado por clásticos, onde um mapa de cores, escalonado em unidades de porosidade aparente para as argilas e efetiva para os arenitos, mostra a variação da porosidade e a disposição geométrica das camadas geológicas ao longo da seção. Esta metodologia é aplicada em dados reais da Formação Lagunillas, na Bacia do Lago Maracaibo, Venezuela.Tese Acesso aberto (Open Access) Paleomagnetismo de rochas vulvânicas do Nordeste do Brasil e a época da abertura do Oceano Atlântico Sul(Universidade Federal do Pará, 1983-12-28) GUERREIRO, Sonia Dias Cavalcanti; SCHULT, AxelNa primeira parte deste trabalho foram desenvolvidos estudos de magnetismo de rochas e paleomagnetismo em amostras de rochas vulcânicas do Nordeste brasileiro. As idades das amostras compreende os períodos Jurássico e Cretáceo. Com este objetivo foram amostradas quatro áreas tendo sido estudado um total de 496 amostras em 55 sítios. Para a coleta foi utilizada uma perfuradora portátil que extrai amostras de 2.5 cm de diâmetro. A orientação das amostras foi feita por meio de uma bússola magnética e de um clinômetro. Os espécimes foram submetidos a desmagnetizações por campo magnético alternado e em alguns poucos casos foi empregada a desmagnetização térmica. Atribuindo-se peso unitário a cada sítio foi determinada a direção média da magnetização remanescente característica de cada uma das áreas estudadas. As rochas vulcânicas do período Jurássico, localizadas na borda oeste da Bacia do Maranhão (Porto Franco-Estreito), apresentaram uma direção media em que D= 3.9°, I= -17.9° com α95= 9.3°, k= 17.9, N= 15 e todos os sítios apresentaram polaridade normal. Para esta área foi determinado o polo paleomagnético de coordenadas 85.3°N, 82.5°E (A95= 6.9º) que se localiza próximo a outros polos paleomagnéticos conhecidos para esse período. As rochas da borda leste da Bacia do Maranhão (Teresina-Picos-Floriano) de idade cretácica inferior apresentaram uma direção média de magnetização remanescente característica tal que D= 174.7°, I= +6.0º com α95= 2.8º, k= 122, N= 21 e todos os sítios apresentaram polaridade reversa. O polo paleomagnético associado a elas apresentou por coordenadas 83.6°N, 261.0°E (A95=1.9°) e mostrou concordância com outros polos sul americanos de mesma idade. No Rio Grande do Norte foi estudado um enxame de diques toleíticos também de idade cretácica inferior, cuja direção média da magnetização remanescente característica encontrada foi D= 186.6º, I= +20.6º com α95= 14.0° e k= 12.9, N= 10. Os sítios desta área apresentaram magnetizações com polaridades normal a reversa. O polo paleomagnético obtido se localiza em 80.6°N e 94.8°E com A95= 9.5°. O estudo das rochas vulcânicas da província magnética do Cabo de Santo Agostinho indicou para a região um valor de D= 0.4º, I= -20.6º com α95= 4.8° e k= 114, N= 9 para a magnetização remanescente característica. Todos os sítios apresentaram polaridade normal e o polo paleomagnético determinado apresentou as seguintes coordenadas: 87.6ºN, 135ºE com A95= 4.5º. Foi discutida a eliminação da variação secular das direções obtidas, de forma que cada polo apresentado nesta dissertação é verdadeiramente um polo paleomagnético. A análise dos minerais magnéticos portadores da remanência, efetuada por curvas termomagnéticas ou por difração de Raio-X, indicou na maior parte das ocorrências, a presença de titanomagnetita pobre em titânio. A presença de maguemita e algumas vezes hematita, na maior parte das vezes resultado de intemperismo, não anulou a magnetização termoremanente associada à época de formação da rocha, que foi determinada após a aplicação de técnicas de desmagnetização aos espécimes. Pelas curvas termomagnéticas obteve-se, para a maioria das amostras, uma temperatura de Curie entre 500 e 600ºC. Os casos mais freqüentes indicaram a ocorrência de titanomagnetita exsolvida, em que foram observadas a presença de uma fase próxima à magnetita e outra fase rica em titânio, próxima à ilmenita, resultado de oxidação de alta temperatura. A segunda parte do trabalho diz respeito à determinação da época de abertura do oceano Atlântico Sul por meio de dados paleomagnéticos. Entretanto ao invés de se utilizar o procedimento comumente encontrado na literatura, e que se baseia nas curvas de deriva polar aparente de cada continente, foi aplicado um teste estatístico que avalia a probabilidade de determinada posição relativa entre os continentes ser válida ou não, para determinado período em estudo. Assim foi aplicado um teste F a polos paleomagnéticos da África e da América do Sul, dos períodos Triássico, Jurássico, Cretáceo Inferior e Cretáceo Médio-Superior, tendo sido estudadas situações que reconstituem a posição pré-deriva dos continentes e configurações que simulem um afastamento entre eles. Os resultados dos testes estatísticos indicaram, dentro de uma probabilidade de erro de menos de 5%, que a configuração pré-deriva de Martin et al (1981) é compatível com os dados paleomagnéticos do Triássico, mas apresenta uma diferença significativa para os paleopolos de Jurássico, Cretáceo Inferior, Cretáceo Médio-Superior. Outras reconstruções pré-deriva testadas apresentaram o mesmo resultado. A comparação entre os polos paleomagnéticos da América do Sul e da África, segundo uma reconstrução que admite uma pequena abertura entre os continentes, como a proposta por Sclater et al (1977) para 110 m.a. atrás, indicou que os dados do Triássico não são compatíveis com este afastamento. Por outro lado os paleopolos do Jurássico e do Cretáceo Inferior, embora mais antigos que a data sugerida pela reconstrução, são consistentes com esta separação dentro de uma probabilidade de erro de menos de 5%. Os dados do Cretáceo Médio-Superior se mostraram consistentes com a reconstrução sugerida para 80 m.a. atrás por Francheteau (1973) e que propõe uma separação maior entre os continentes. Com base na premissa de deslocamentos de blocos continentais rígidos a análise dos resultados obtidos indicou que América do Sul e África estavam unidas por suas margens continentais opostas no período Triássico e que uma pequena separação entre estes continentes, provavelmente devida a uma rutura inicial, ocorreu no Jurássico e se manteve, então, aproximadamente estacionária até o início do Cretáceo Inferior. Esta conclusão difere da maior parte dos trabalhos que discutem a abertura do oceano Atlântico Sul. Os dados do Cretáceo Médio-Superior são compatíveis com um afastamento rápido e significativo entre os continentes naquele período.Tese Acesso aberto (Open Access) Empilhamento sísmico por superfície de reflexão comum: um novo algoritmo usando otimização global e local(Universidade Federal do Pará, 2001-10-25) GARABITO CALLAPINO, German; CRUZ, João Carlos Ribeiro; http://lattes.cnpq.br/8498743497664023; HUBRAL, Peter; http://lattes.cnpq.br/7703430139551941O método de empilhamento sísmico por Superfície de Reflexão Comum (ou empilhamento SRC) produz a simulação de seções com afastamento nulo (NA) a partir dos dados de cobertura múltipla. Para meios 2D, o operador de empilhamento SRC depende de três parâmetros que são: o ângulo de emergência do raio central com fonte-receptor nulo (β0), o raio de curvatura da onda ponto de incidência normal (RNIP) e o raio de curvatura da onda normal (RN). O problema crucial para a implementação do método de empilhamento SRC consiste na determinação, a partir dos dados sísmicos, dos três parâmetros ótimos associados a cada ponto de amostragem da seção AN a ser simulada. No presente trabalho foi desenvolvido uma nova sequência de processamento para a simulação de seções AN por meio do método de empilhamento SRC. Neste novo algoritmo, a determinação dos três parâmetros ótimos que definem o operador de empilhamento SRC é realizada em três etapas: na primeira etapa são estimados dois parâmetros (β°0 e R°NIP) por meio de uma busca global bidimensional nos dados de cobertura múltipla. Na segunda etapa é usado o valor de β°0 estimado para determinar-se o terceiro parâmetro (R°N) através de uma busca global unidimensional na seção AN resultante da primeira etapa. Em ambas etapas as buscas globais são realizadas aplicando o método de otimização Simulated Annealing (SA). Na terceira etapa são determinados os três parâmetros finais (β0, RNIP e RN) através uma busca local tridimensional aplicando o método de otimização Variable Metric (VM) nos dados de cobertura múltipla. Nesta última etapa é usado o trio de parâmetros (β°0, R°NIP, R°N) estimado nas duas etapas anteriores como aproximação inicial. Com o propósito de simular corretamente os eventos com mergulhos conflitantes, este novo algoritmo prevê a determinação de dois trios de parâmetros associados a pontos de amostragem da seção AN onde há intersecção de eventos. Em outras palavras, nos pontos da seção AN onde dois eventos sísmicos se cruzam são determinados dois trios de parâmetros SRC, os quais serão usados conjuntamente na simulação dos eventos com mergulhos conflitantes. Para avaliar a precisão e eficiência do novo algoritmo, este foi aplicado em dados sintéticos de dois modelos: um com interfaces contínuas e outro com uma interface descontinua. As seções AN simuladas têm elevada razão sinal-ruído e mostram uma clara definição dos eventos refletidos e difratados. A comparação das seções AN simuladas com as suas similares obtidas por modelamento direto mostra uma correta simulação de reflexões e difrações. Além disso, a comparação dos valores dos três parâmetros otimizados com os seus correspondentes valores exatos calculados por modelamento direto revela também um alto grau de precisão. Usando a aproximação hiperbólica dos tempos de trânsito, porém sob a condição de RNIP = RN, foi desenvolvido um novo algoritmo para a simulação de seções AN contendo predominantemente campos de ondas difratados. De forma similar ao algoritmo de empilhamento SRC, este algoritmo denominado empilhamento por Superfícies de Difração Comum (SDC) também usa os métodos de otimização SA e VM para determinar a dupla de parâmetros ótimos (β0, RNIP) que definem o melhor operador de empilhamento SDC. Na primeira etapa utiliza-se o método de otimização SA para determinar os parâmetros iniciais β°0 e R°NIP usando o operador de empilhamento com grande abertura. Na segunda etapa, usando os valores estimados de β°0 e R°NIP, são melhorados as estimativas do parâmetro RNIP por meio da aplicação do algoritmo VM na seção AN resultante da primeira etapa. Na terceira etapa são determinados os melhores valores de β°0 e R°NIP por meio da aplicação do algoritmo VM nos dados de cobertura múltipla. Vale salientar que a aparente repetição de processos tem como efeito a atenuação progressiva dos eventos refletidos. A aplicação do algoritmo de empilhamento SDC em dados sintéticos contendo campos de ondas refletidos e difratados, produz como resultado principal uma seção AN simulada contendo eventos difratados claramente definidos. Como uma aplicação direta deste resultado na interpretação de dados sísmicos, a migração pós-empilhamento em profundidade da seção AN simulada produz uma seção com a localização correta dos pontos difratores associados às descontinuidades do modelo.Tese Acesso aberto (Open Access) Interpolação de dados de campo potencial através da camada equivalente(Universidade Federal do Pará, 1992-09-15) MENDONÇA, Carlos Alberto; SILVA, João Batista Corrêa da; http://lattes.cnpq.br/1870725463184491O uso da técnica da camada equivalente na interpolação de dados de campo potencial permite levar em consideração que a anomalia, gravimétrica ou magnética, a ser interpolada é uma função harmônica. Entretanto, esta técnica tem aplicação computacional restrita aos levantamentos com pequeno número de dados, uma vez que ela exige a solução de um problema de mínimos quadrados com ordem igual a este número. Para viabilizar a aplicação da técnica da camada equivalente aos levantamentos com grande número de dados, nós desenvolvemos o conceito de observações equivalentes e o método EGTG, que, respectivamente, diminui a demanda em memória do computador e otimiza as avaliações dos produtos internos inerentes à solução dos problemas de mínimos quadrados. Basicamente, o conceito de observações equivalentes consiste em selecionar algumas observações, entre todas as observações originais, tais que o ajuste por mínimos quadrados, que ajusta as observações selecionadas, ajusta automaticamente (dentro de um critério de tolerância pré-estabelecido) todas as demais que não foram escolhidas. As observações selecionadas são denominadas observações equivalentes e as restantes são denominadas observações redundantes. Isto corresponde a partir o sistema linear original em dois sistemas lineares com ordens menores. O primeiro com apenas as observações equivalentes e o segundo apenas com as observações redundantes, de tal forma que a solução de mínimos quadrados, obtida a partir do primeiro sistema linear, é também a solução do segundo sistema. Este procedimento possibilita ajustar todos os dados amostrados usando apenas as observações equivalentes (e não todas as observações originais) o que reduz a quantidade de operações e a utilização de memória pelo computador. O método EGTG consiste, primeiramente, em identificar o produto interno como sendo uma integração discreta de uma integral analítica conhecida e, em seguida, em substituir a integração discreta pela avaliação do resultado da integral analítica. Este método deve ser aplicado quando a avaliação da integral analítica exigir menor quantidade de cálculos do que a exigida para computar a avaliação da integral discreta. Para determinar as observações equivalentes, nós desenvolvemos dois algoritmos iterativos denominados DOE e DOEg. O primeiro algoritmo identifica as observações equivalentes do sistema linear como um todo, enquanto que o segundo as identifica em subsistemas disjuntos do sistema linear original. Cada iteração do algoritmo DOEg consiste de uma aplicação do algoritmo DOE em uma partição do sistema linear original. Na interpolação, o algoritmo DOE fornece uma superfície interpoladora que ajusta todos os dados permitindo a interpolação na forma global. O algoritmo DOEg, por outro lado, otimiza a interpolação na forma local uma vez que ele emprega somente as observações equivalentes, em contraste com os algoritmos existentes para a interpolação local que empregam todas as observações. Os métodos de interpolação utilizando a técnica da camada equivalente e o método da mínima curvatura foram comparados quanto às suas capacidades de recuperar os valores verdadeiros da anomalia durante o processo de interpolação. Os testes utilizaram dados sintéticos (produzidos por modelos de fontes prismáticas) a partir dos quais os valores interpolados sobre a malha regular foram obtidos. Estes valores interpolados foram comparados com os valores teóricos, calculados a partir do modelo de fontes sobre a mesma malha, permitindo avaliar a eficiência do método de interpolação em recuperar os verdadeiros valores da anomalia. Em todos os testes realizados o método da camada equivalente recuperou mais fielmente o valor verdadeiro da anomalia do que o método da mínima curvatura. Particularmente em situações de sub-amostragem, o método da mínima curvatura se mostrou incapaz de recuperar o valor verdadeiro da anomalia nos lugares em que ela apresentou curvaturas mais pronunciadas. Para dados adquiridos em níveis diferentes o método da mínima curvatura apresentou o seu pior desempenho, ao contrário do método da camada equivalente que realizou, simultaneamente, a interpolação e o nivelamento. Utilizando o algoritmo DOE foi possível aplicar a técnica da camada equivalente na interpolação (na forma global) dos 3137 dados de anomalia ar-livre de parte do levantamento marinho Equant-2 e 4941 dados de anomalia magnética de campo total de parte do levantamento aeromagnético Carauari-Norte. Os números de observações equivalentes identificados em cada caso foram, respectivamente, iguais a 294 e 299. Utilizando o algoritmo DOEg nós otimizamos a interpolação (na forma local) da totalidade dos dados de ambos os levantamentos citados. Todas as interpolações realizadas não seriam possíveis sem a aplicação do conceito de observações equivalentes. A proporção entre o tempo de CPU (rodando os programas no mesmo espaço de memória) gasto pelo método da mínima curvatura e pela camada equivalente (interpolação global) foi de 1:31. Esta razão para a interpolação local foi praticamente de 1:1.Tese Acesso aberto (Open Access) Atenuação de múltiplas e compressão do pulso fonte em dados de sísmica de reflexão utilizando o filtro Kalman-Bucy(Universidade Federal do Pará, 2003-01-24) ROCHA, Marcus Pinto da Costa da; LEITE, Lourenildo Williame Barbosa; http://lattes.cnpq.br/8588738536047617O objetivo central deste trabalho é o estudo e a aplicação do método Kalman-Bucy no processo de deconvolução ao impulso e de deconvolução com predição, onde é considerado que os dados observados são classificados como não-estacionários. Os dados utilizados neste trabalho são sintéticos e, com isto, esta Tese tem características de um exercício numérico e investigativo. O operador de deconvolução ao impulso é obtido a partir da teoria de CRUMP (1974) fazendo uso das soluções das equações Wiener-Hopf apresentadas por KALMAN-BUCY (1961) nas formas contínuas e discretas considerando o processo como não estacionário. O operador de predição (KBCP) está baseado nas teorias de CRUMP (1974) e MENDEL ET AL (1979). Sua estrutura assemelha-se ao filtro Wiener-Hopf onde os coeficientes do operador (WHLP) são obtidos através da autocorrelação, e no caso (KBCP) são obtidos a partir da função bi(k). o problema é definido em duas etapas: a primeira consta da geração do sinal, e a segunda da sua avaliação. A deconvolução realizada aqui é classificada como estatística, e é um modelo fortemente baseado nas propriedades do sinal registrado e de sua representação. Os métodos foram aplicados apenas em dados sintéticos de seção fonte-comum obtida a partir dos modelos com interfaces contínuas e camadas homogêneas.Tese Acesso aberto (Open Access) Imageamento homeomórfico de refletores sísmicos(Universidade Federal do Pará, 1994-10-06) CRUZ, João Carlos Ribeiro; HUBRAL, Peter; http://lattes.cnpq.br/7703430139551941Neste trabalho é apresentada uma nova técnica para a realização do empilhamento sísmico, aplicada ao problema do imageamento de refletores fixos em um meio bidimensional, suavemente heterogêneo, isotrópico, a partir de dados de reflexão. Esta nova técnica chamada de imageamento homeomórfico tem como base a aproximação geométrica do raio e propriedades topológicas dos refletores. São utilizados, portanto, os conceitos de frente de onda, ângulo de incidência, raio de curvatura da frente de onda, cáustica e definição da trajetória do raio; de tal modo que a imagem obtida mantém relações de homeomorfismo com o objeto que se deseja imagear. O empilhamento sísmico é feito, nesta nova técnica de imageamento, aplicando-se uma correção local do tempo, ∆ t, ao tempo de trânsito, t, do raio que parte da fonte sísmica localizada em xo, reflete-se em um ponto de reflexão, Co, sendo registrado como uma reflexão primária em um geofone localizado em xg, em relação ao tempo de referência to no sismograma, correspondente ao tempo de trânsito de um raio central. A fórmula utilizada nesta correção temporal tem como parâmetros o raio de curvatura Ro, o ângulo de emergência βo da frente de onda, no instante em que a mesma atinge a superfície de observação, e a velocidade vo considerada constante nas proximidades da linha sísmica. Considerando-se uma aproximação geométrica seguido um círculo para a frente de onda, pode-se estabelecer diferentes métodos de imageamento homeomórfico dependendo da configuração de processamento. Sendo assim tem-se: 1) Método Elemento de Fonte (Receptor) Comum (EF(R)C). Utiliza-se uma configuração onde se tem um conjunto de sismogramas relacionado com uma única fonte (receptor), e considera-se uma frente de onda real (de reflexão); 2) Método Elemento de Reflexão Comum (ERC). Utiliza-se uma configuração onde um conjunto de sismogramas é relacionado com um único ponto de reflexão, e considera-se uma frente de onda hipoteticamente originada neste ponto; 3) Método Elemento de Evoluta Comum (EEC). Utiliza-se uma configuração onde cada sismograma está relacionado com um par de fonte e geofone coincidentemente posicionados na linha sísmica, e considera-se uma frente de onda hipoteticamente originada no centro de curvatura do refletor. Em cada um desses métodos tem-se como resultados uma seção sísmica empilhada, u(xo, to); e outras duas seções denominadas de radiusgrama, Ro (xo, to), e angulograma, βo(xo, to), onde estão os valores de raios de curvatura e ângulos de emergência da frente de onda considerada no instante em que a mesma atinge a superfície de observação, respectivamente. No caso do método denominado elemento refletor comum (ERC), a seção sísmica resultante do empilhamento corresponde a seção afastamento nulo. Pode-se mostrar que o sinal sísmico não sofre efeitos de alongamento como consequência da correção temporal, nem tão pouco apresenta problemas de dispersão de pontos de reflexão como consequência da inclinação do refletor, ao contrário do que acontece com as técnicas de empilhamento que tem por base a correção NMO. Além disto, por não necessitar de um macro modelo de velocidades a técnica de imageamento homeomórfico, de um modo geral, pode também ser aplicada a modelos heterogêneos, sem perder o rigor em sua formulação. Aqui também são apresentados exemplos de aplicação dos métodos elemento de fonte comum (EFC) (KEYDAR, 1993), e elemento refletor comum (ERC) (STEENTOFT, 1993), ambos os casos com dados sintéticos. No primeiro caso, (EFC), onde o empilhamento é feito tendo como referência um raio central arbitrário, pode-se observar um alto nível de exatidão no imageamento obtido, além do que é dada uma interpretação para as seções de radiusgrama e angulograma, de modo a se caracterizar aspectos geométricos do model geofísico em questão. No segundo caso, (ERC), o método é aplicado a série de dados Marmousi, gerados pelo método das diferenças finitas, e o resultado é comparado com aquele obtido por métodos convecionais (NMO/DMO) aplicados aos mesmos dados. Como consequência, observa-se que através do método ERC pode-se melhor detectar a continuidade de refletores, enquanto que através dos métodos convencionais caracterizam-se melhor a ocorrência de difrações. Por sua vez, as seções de radiusgrama e angulograma, no método (ERC), apresentam um baixo poder de resolução nas regiões do modelo onde se tem um alto grau de complexidade das estruturas. Finalmente, apresenta-se uma formulação unificada que abrange os diferentes métodos de imageamento homeomórfico citados anteriormente, e também situações mais gerais onde a frente de onda não se aproxima a um círculo, mas a uma curva quadrática qualquer.Tese Acesso aberto (Open Access) Região do espaço que mais influencia em medidas eletromagnéticas no domínio da frequência: caso de uma linha de corrente sobre um semi-espaço condutor(Universidade Federal do Pará, 1994-07-28) BRITO, Licurgo Peixoto de; DIAS, Carlos Alberto; http://lattes.cnpq.br/9204009150155131Localizar em subsuperfície a região que mais influencia nas medidas obtidas na superfície da Terra é um problema de grande relevância em qualquer área da Geofísica. Neste trabalho, é feito um estudo sobre a localização dessa região, denominada aqui zona principal, para métodos eletromagnéticos no domínio da freqüência, utilizando-se como fonte uma linha de corrente na superfície de um semi-espaço condutor. No modelo estudado, tem-se, no interior desse semi-espaço, uma heterogeneidade na forma de camada infinita, ou de prisma com seção reta quadrada e comprimento infinito, na direção da linha de corrente. A diferença entre a medida obtida sobre o semi-espaço contendo a heterogeneidade e aquela obtida sobre o semi-espaço homogêneo, depende, entre outros parâmetros, da localização da heterogeneidade em relação ao sistema transmissor-receptor. Portanto, mantidos constantes os demais parâmetros, existirá uma posição da heterogeneidade em que sua influência é máxima nas medidas obtidas. Como esta posição é dependente do contraste de condutividade, das dimensões da heterogeneidade e da freqüência da corrente no transmissor, fica caracterizada uma região e não apenas uma única posição em que a heterogeneidade produzirá a máxima influência nas medidas. Esta região foi denominada zona principal. Identificada a zona principal, torna-se possível localizar com precisão os corpos que, em subsuperfície, provocam as anomalias observadas. Trata-se geralmente de corpos condutores de interesse para algum fim determinado. A localização desses corpos na prospecção, além de facilitar a exploração, reduz os custos de produção. Para localizar a zona principal, foi definida uma função Detetabilidade (∆), capaz de medir a influência da heterogeneidade nas medidas. A função ∆ foi calculada para amplitude e fase das componentes tangencial (Hx) e normal (Hz) à superfície terrestre do campo magnético medido no receptor. Estudando os extremos da função ∆ sob variações de condutividade, tamanho e profundidade da heterogeneidade, em modelos unidimensionais e bidimensionais, foram obtidas as dimensões da zona principal, tanto lateralmente como em profundidade. Os campos eletromagnéticos em modelos unidimensionais foram obtidos de uma forma híbrida, resolvendo numericamente as integrais obtidas da formulação analítica. Para modelos bidimensionais, a solução foi obtida através da técnica de elementos finitos. Os valores máximos da função ∆, calculada para amplitude de Hx, mostraram-se os mais indicados para localizar a zona principal. A localização feita através desta grandeza apresentou-se mais estável do que através das demais, sob variação das propriedades físicas e dimensões geométricas, tanto dos modelos unidimensionais como dos bidimensionais. No caso da heterogeneidade condutora ser uma camada horizontal infinita (caso 1D), a profundidade do plano central dessa camada vem dada pela relação po = 0,17 δo, onde po é essa profundidade e δo o "skin depth" da onda plana (em um meio homogêneo de condutividade igual à do meio encaixante (σ1) e a freqüência dada pelo valor de w em que ocorre o máximo de ∆ calculada para a amplitude de Hx). No caso de uma heterogeneidade bidimensional (caso 2D), as coordenadas do eixo central da zona principal vem dadas por do = 0,77 r0 (sendo do a distância horizontal do eixo à fonte transmissora) e po = 0,36 δo (sendo po a profundidade do eixo central da zona principal), onde r0 é a distância transmissor-receptor e δo o "skin depth" da onda plana, nas mesmas condições já estipuladas no caso 1D. Conhecendo-se os valores de r0 e δo para os quais ocorre o máximo de ∆, calculado para a amplitude de Hx, pode-se determinar (do, po). Para localizar a zona principal (ou, equivalentemente, uma zona condutora anômala em subsuperfície), sugere-se um método que consiste em associar cada valor da função ∆ da amplitude de Hx a um ponto (d, p), gerado através das relações d = 0,77 r e p = 0,36 δ, para cada w, em todo o espectro de freqüências das medidas, em um dado conjunto de configurações transmissor-receptor. São, então, traçadas curvas de contorno com os isovalores de ∆ que vão convergir, na medida em que o valor de ∆ se aproxima do máximo, sobre a localização e as dimensões geométricas aproximadas da heterogeneidade (zona principal).Tese Acesso aberto (Open Access) Uma nova abordagem para interpretação de anomalias gravimétricas regionais e residuais aplicada ao estudo da organização crustal: exemplo da Região Norte do Piauí e Noroeste do Ceará(Universidade Federal do Pará, 1989-12-18) BELTRÃO, Jacira Felipe; HASUI, Yociteru; http://lattes.cnpq.br/3392176511494801; SILVA, João Batista Corrêa da; http://lattes.cnpq.br/1870725463184491A interpretação de anomalias gravimétricas é de grande importância no estudo de feições geológicas que ocorrem na crosta terrestre. Esta interpretação é, no entanto, dificultada pelo fato das anomalias gravimétricas serem resultantes da soma total dos efeitos produzidos por todos os contrastes de densidades de subsuperfície. Desse modo, com o intuito de separar efeitos de feições mais profundas de efeitos de feições mais rasas, bem como a caracterização da geometria desses dois conjuntos de feições, apresentamos um método de separação das componentes regional e residual do campo e a subsequente interpretação de cada componente. A separação regional-residual de dados gravimétricos é efetuada através da aproximação do campo regional por um polinômio ajustado ao campo observado por um método robusto. Este método é iterativo e usa como aproximação inicial a solução obtida através do ajuste polinomial pelo método dos mínimos quadrados. O método empregado minimiza a influência de observações contendo forte contribuição do campo residual no ajuste do campo regional. A componente regional obtida a partir da separação regional-residual é transformada em um mapa de distâncias verticais em relação a um nível de referência. Esta transformação compreende duas etapas. A primeira consiste na obtenção da continuação para baixo da componente regional, que é pressuposta ser causada por uma interface suave separando dois meios homogêneos, representando a interface crosta-manto, cujo contraste de densidade é supostamente conhecido. A segunda consiste na transformação do mapa de continuação para baixo em um mapa de distâncias verticais entre o nível de continuação (tomado como nível de referência) e a interface. Este método apresenta duas dificuldades. A primeira está ligada à instabilidade, havendo portanto a necessidade do emprego de um estabilizador o que acarreta a perda de resolução das feições que se desejam mapear. A segunda, inerente ao método gravimétrico, consiste na impossibilidade da determinação das profundidades absolutas da interface em cada ponto, bastando entretanto o conhecimento da profundidade absoluta em um ponto, através de informação independente, para que todas as outras profundidades absolutas sejam conhecidas. A componente residual obtida a partir da separação regional-residual é transformada em um mapa de contrastes de densidade aparente. Esta transformação consiste no cálculo do contraste de densidade de várias fontes prismáticas através de uma inversão linear pressupondo que as fontes reais estejam das a uma placa horizontal, com contrastes de densidade variando apenas nas direções horizontais. O desempenho do método de separação regional-residual apresentado foi avaliado, através de testes empregando dados sintéticos, fornecendo resultados superiores em relação aos métodos dos mínimos quadrados e da análise espectral. O método de interpretação da componente regional teve seu desempenho avaliado em testes com dados sintéticos onde foram produzidos mapeamentos de interfaces bem próximas das estruturas reais. O limite de resolução das feições que se desejam mapear depende não só do grau do polinômio ajustante, como também da própria limitação inerente ao método gravimétrico. Na interpretação da componente residual é necessário que se postule ou tenha informação a priori sobre a profundidade do topo e espessura da placa onde as fontes estão supostamente confinadas. No entanto, a aplicação do método em dados sintéticos, produziu estimativas razoáveis para os limites laterais das fontes, mesmo na presença de fontes interferentes, e pressupondo-se valores para profundidade do topo e espessura da placa, diferentes dos valores verdadeiros. A ambiguidade envolvendo profundidade do topo, espessura e densidade pode ser visualizada através de gráficos de valores de densidade aparente contra profundidade do topo presumida para a placa para vários valores postulados para a espessura da placa. Estes mesmos gráficos permitem, pelo aspecto das curvas, a elaboração de uma interpretação semi-quantitativa das profundidades das fontes reais. A seqüência dos três métodos desenvolvidos neste trabalho foi aplicada a dados gravimétricos da região norte do Piauí e noroeste do Ceará levando a um modelo de organização crustal que compreende espessamentos e adelgaçamentos crustais associados a um evento compressivo que possibilitou a colocação de rochas densas da base da crosta a profundidades rasas. Este modelo ê compatível com os dados geológicos de superfície. É ainda sugerida a continuidade, por mais 200 km em direção a sudoeste, do Cinturão de Cisalhamento Noroeste do Ceará por sob os sedimentos da Bacia do Parnaíba, com base nas evidências fornecidas pela interpretação da anomalia residual. Embora esta seqüência de métodos tenha sido desenvolvida com vistas ao estudo de feições crustais de porte continental, ela também pode ser aplicada ao estudo de feições mais localizadas como por exemplo no mapeamento do relevo do embasamento de/bacias sedimentares onde os sedimentos são cortados por rochas intrusivas mais densas.
- «
- 1 (current)
- 2
- 3
- »
