terça-feira, março 31, 2009

Resolvido

Em relação ao problema com a database em XML: Resolvido. Ao invés de usar a força bruta no parsing do XML, criei um banco de dados com a estrutura adequada no MySQL usando a estrutura do XML e usei a nova ferramenta de importação de dados XML que está na versão alpha do novo MySQL 6. Como tudo no MySQL, é impressionante a velocidade e o mínimo de memória utilizado.
O legal é que estudei mais XML e XPath, e coloquei uma ferramenta nova na caixa. Foi bom para distrair dos meus problemas de pesquisa.

segunda-feira, março 30, 2009

Previsões

Nosso Livingstone Econômico pede que eu comente sobre o artigo do Kanitz sobre um comentário do Delfim Netto. Se eu concordo que as previsões que saem no jornal são meros chutes. Sim, claro. 99.9% das previsões publicadas na mídia são totalmente sem fundamentos quantitativos. Bom, a maioria absoluta dos comentários econômicos de jornais são totalmente subjetivos e ninguém deveria apostar seu dinheiro nisso.
Mas discordo de todo o resto. Primeiro existem leading indicators confiáveis (aliás existe uma literatura monumental sobre isso - de Stock e Watson, Hamilton, os artigos da Marcelle Chauvet, do João Victor Issler e seus co-autores, etc, etc). Mas tenho certeza que a maioria dos comentaristas de jornal jamais tenha lido algo a respeito, ou se importado em pesquisar sobre o assunto. Então na literatura econômica existem leading indicators confiáveis, embora com variabilidade elevada como seria esperada em previsões de longo prazo.
E discordo totalmente sobre a colocação do Kanitz de que não se deveria publicar as previsões de economistas em jornais. O que deveria ser bastante ponderado são as previsões de "economistas" que não são baseadas em nenhuma análise quantitativa, e na verdade apenas reproduzem a média das opiniões. Previsões baseadas em modelos, como por exemplo as previsões derivadas dos modelos do Banco Central são uma ferramenta importante de decisão.
O problema de modelos de previsão é que eles refletem a informação observada até o tempo das previsões, e assim só são confiáveis se o modelo é robusto a mudanças na estrutura da economia, o que nem sempre acontece, em especial em momentos de crise (o que está relacionado ao conceito de super-exogeneidade), e assim é preciso testar a robustez do modelo nestas situações.
Outro ponto é que não se deve confiar no que os analistas dizem, mas sim no que eles efetivamente colocam seu dinheiro. Assim é muito mais confiável olhar para fontes como a estrutura a termo de taxas de juros como indicadores antecedentes (existe uma literatura importante que mostra que o spread é um antecedente de recessões) do que papo furado.
Informação subjetiva é importante, já que pode refletir informação não presente no histórico de dados (e para isso veja o sucesso de modelos de alocação como o modelo de Black-Litterman), mas para isso devem ser utilizadas técnicas que permitem incorporar esta informação nas previsões de uma forma consistente, como técnicas de Bayesian Forecasting.

Dead End

Parado em um problema. Não, não é da minha pesquisa. O problema é converter um banco de dados gigante que foi exportado um formato absurdo. Um banco de dados com uma estrutura complexa que foi exportado como um único arquivo XML.
O problema é que é um arquivo que tem UMA linha e milhões de colunas. Toda a informação está em apenas uma linha. Normalmente nesse tipo de problema eu usaria Perl para extrair ou reformatar os dados. O problema é que o Perl carrega uma linha por vez na memória.
E quando tenho carregar esta linha o Perl estoura a memória. Digamos que estourar e memória em um programa Perl em um servidor 64 bits com gigas e mais gigas de memória física não é um problema trivial.
Nenhum dos parsers XML deu conta do recado. E nem o Perl direto no código. Começo a ficar preocupado.

Turing Bombe

Li agora que a Turing Bombe foi reconstruída. Uma das aplicações mais impressionantes da matemática está na análise criptográfica e as técnicas utilizadas para quebrar padrões. A mais importante figura nesta área foi Alan Turing, que não por acaso é uma das figuras mais importantes na computação.
Alguns algoritmos utilizados na época são muito interessantes, como a técnica conhecida como Banburismus , que é um algoritmo Bayesiano.
Neste momento estou lendo o romance Cryptonomicon, um tour de force escrito por Neal Stephenson sobre este assunto, com ramificações surpreendentes. Estou no primeiro quarto do livro (que tem mais de 1100 páginas) e já coloco como uma das melhores ficções que li nos últimos anos.

sábado, março 28, 2009

the luck of the word

troughout the years
I have gotten letters
from men

who say
that reading my books
has helped them
get through,
go on.

this is high praise
indeed
and I know what
they mean
my nerve to go
on was helped
by reading Fante, Dostoevsky,
Lawrence, Celine, Hamsun
and others.

the word
raw on page
the similarity of
our hells.
when it all comes
trough with
special
force,
those words and
what they speak
of
do help
get our asses
through the
fire.

a good book
can make an almost
impossible
existence
liveable.

for the reader
and
the writer.

Charles Bukowski, Betting on the Muse.

Obrigado Hank.

quinta-feira, março 26, 2009

Subproduto

Estava testando mais uma especificação para o modelo de estrutura a termo. Exatamente o modelo 25 e 26 de comparação. Já esperava que o resultado fosse ruim, mas como publicaram algo semelhante quis testar. Não valeu a pena todo o trabalho.
Mas com essa extensão fiquei com uma programação pronta para estimar filtro HP de forma bayesiana. Deve ser útil em alguma outra pesquisa.

R Finance

Congresso sobre aplicações da linguagem R em Finanças:

R/Finance 2009: Applied Finance with R

Keynote Presenters

* Patrick Burns Random Portfolios: Theory and Practice
* Robert Grossman TBA
* David Kane TBA
* Roger Koenker Quantile Regression in R: For Fin and Fun
* David Ruppert TBA
* Diethelm Wuertz TBA
* Eric Zivot TBA

Tutorials

* Peter Carl PerformanceAnalytics
* Dirk Eddelbuettel HPC with R
* Brian Peterson PerformanceAnalytics
* Dale Rosenthal Market Microstructure
* Jeffrey Ryan xts/quantmod

Contributing Presenters

* Yohan Chalabi: Econometrics and Practice: Mind the Gap
* Hedibert Lopes: Particle Learning and Smoothing
* Krishna Kumar: Numerical Integration and Exotics
* Christoph Leitner and Paul Hofmarcher: Latent Variable Approach to Validate Credit Rating
* Wei-han Liu: Detecting Structural Breaks
* Bryan Lewis: Backtesting Trading Rules with ParallelR
* David Matteson: ICA for Multivariate Nonlinear Financial Time Series
* Klaus Rheinberger: VEC and GVAR Models using R
* Brian Rowe: Filtering noise in correlation matrics
* Guy Yollin: R tools for Portfolio Optimization
* Joon-Hui Yoon: Event Study: Change-Point Model


Programação bastante interessante.

quarta-feira, março 25, 2009

Muito trabalho e diversão

Depois de resolver as obrigações diárias, vou trabalhando no modelo de estrutura a termo. Quase lá. Falta apenas mais um modelo para rodar e tudo pronto. Resolvi um ultimo problema de mixing em um dos parâmetros do modelo, e agora tudo roda sem problemas e com excelentes resultados.
Alguns resultados bastante interessantes. No outro artigo de estrutura a termo um dos problemas era que por falta de tempo rodei poucas comparações. Neste são 25 especificações diferentes.

segunda-feira, março 23, 2009

Leitura do Dia - MODERN BAYESIAN INFERENCE

MODERN BAYESIAN INFERENCE: FOUNDATIONS AND OBJECTIVE METHODS
José M. Bernardo
Departamento de Estadística e I. O., Universitat de València.
Facultad de Matemáticas, 46100–Burjassot, Valencia, Spain.

Summary
The field of statistics includes two major paradigms: frequentist and Bayesian. Bayesian methods provide a complete paradigm for both statistical inference and decision making under uncertainty. Bayesian methods may be derived from an axiomatic system and provide a coherent methodology which makes it possible to incorporate relevant initial information, and which solves many of the difficulties which frequentist methods are known to face. If no prior information is to be assumed, a situation often met in scientific reporting and public decision making, a formal initial prior function must be mathematicallyderived from the assumed model. This leads to objective Bayesian methods, objective in the precise sense that their results, like frequentist results, only depend on the assumed model and the data obtained. The Bayesian paradigm is based on an interpretation of probability as a rational conditional measure of uncertainty, which closely matches the sense of the word ‘probability’ in ordinary language. Statistical inference about a quantity of interest is described as the modification of the uncertainty about its value in the light of evidence, and Bayes’ theorem specifies how this modification should precisely be made.

Keywords: Amount of Information, Bayes Estimators, Credible Regions, Decision Theory,
Exchangeability, Foundations of Statistics, Jeffreys priors, Hypothesis Testing, Intrinsic
Discrepancy, Logarithmic Divergence, Maximum Entropy, Noninformative Priors,
Objectivity, Prediction, Probability Assessment, Rational Degree of Belief, Reference
Distributions, Representation Theorems, Scientific Reporting.




Duas discussões muito relevantes

Gustibus levanta duas discussões muito relevantes:

Por que é necessário ensinar economia?

Political arguments crowd out serious economic arguments

Leitura altamente recomendada.

sexta-feira, março 20, 2009

Pós-seminário

Seminário de ontem rendeu bastante. Tive a honra de ter na platéia o Prof. Jorge Achcar, que é um dos maiores especialistas em métodos Bayesianos aplicados. Ele fez alguns comentários muito interessantes, e algumas idéias com certeza serão utilizadas.

quinta-feira, março 19, 2009

Leitura

Mesmo que eu esteja muito cansado, só consigo dormir se ler alguma coisa antes. Nos dias de extremo cansaço a leitura técnica não rende muito. Estou lutando aqui com o Elements of Bayesian Statistics do Florens, Mouchart e Rolin. A maioria dos argumentos é formulada usando sigmas-algebras, medidas em espaços produto, etc. Poucos argumentos usam densidades. Então os exemplos mais familiares não ajudam neste caso. Eu já sabia que o argumento que eu quero não teria uma forma fechada, mas está bem complicado. Bom, uma hora eu consigo.
Outra leitura que está indo devagar é o Criptonomicon, do Neal Stephenson. Este livro é um bom sinal dos tempos. Um livro de sucesso que inicia com um personagem que só pensa em equações diferencias parciais, equações de Navier-Stokes, raízes da função Zeta de Riemman, Turing Machines, é um sinal que existe um pũblico amplo capaz de compreender estas idéias.
Talvez ainda haja esperança para a humanidade.

quarta-feira, março 18, 2009

No caminho

Terminei de preparar o seminário agora. Gostaria de ter terminado antes, mas a semana está uma correria infernal. De qualquer forma dei uma boa adiantada na escrita dos artigos. Do artigo original de estrutura a termo devem sair mais dois, com focos bastante diferentes.
Os resultados do modelo para multiplos países é bem interessante, e esse eu devo escrever rapidinho. Com o seminário eu já fiz todos os gráficos e tabelas e boa parte do texto. As extensões de não-arbitragem devem dar um pouco mais de trabalho, e deve demorar mais um pouco, mas o core está pronto. E olha que a programação deste modelo foi bem trabalhosa, mesmo para os meus padrões. Também escrevi alguns códigos que automatizam a comparação de previsões, o que me dava um pouco de trabalho. Com esse código deu para rodar as variações do modelo sem muito trabalho.

Copulas, de novo

Stephen Kanitz colocou no seu site uma referência sobre o meu comentário sobre o artigo da Wired sobre Cópulas Gaussianas, reproduzido no Estado de domingo.
Meu comentário é um tanto técnico, mas agradeço a referência. Para os interessados, uma busca no blog mostra mais comentários sobre cópulas e modelagem em geral.

terça-feira, março 17, 2009

Kill all the Quants?

Uma leitura de Andrew Lo sobre a crise:

2009 Nomura Lecture
Professor Andrew W. Lo
Harris and Harris Group Professor of Finance
MIT Sloan School of Management


‘Kill all the Quants?’: Models vs. Mania in the Current Financial Crisis
As the shockwaves of the financial crisis of 2008 propagate throughout the global economy, the ‘blame game’ has begun in earnest, with some fingers pointing to the complexity of certain financial securities, and the mathematical models used to manage them.
In his talk, Professor Lo will review the evidence for and against this view, and argue that a broader perspective will show a much different picture. His hypothesis is that blaming quantitative analysis for the financial crisis is akin to blaming Newton’s law F = MA for a fallen mountain climber's death.
A more productive line of inquiry is to look deeper into the underlying causes of financial crisis, which ultimately leads to the conclusion that bubbles, crashes, and market dislocation are unavoidable consequences of hardwired human behavior coupled with free enterprise and modern capitalism. However, even though crises cannot be legislated away, there are many ways to reduce their disruptive effects, and Professor Lo will conclude with a set of proposals for regulatory reform.
Date: Tuesday 19 May 2009
Start: 1800 hours
Venue: Nelson Mandela Lecture Theatre, Saïd Business School



O ponto é mesmo que eu coloquei no artigo de Cópulas, mas com um exemplo muito melhor. Não faz o mínimo sentido culpar uma fórmula.
Se você pode ir até Oxford, seminário extremamente indicado. Andrew Lo é um dos analistas mais inovadores em finanças matemáticas.

segunda-feira, março 16, 2009

Profissão

Acho que já posso iniciar uma nova carreira. Inicializador de Filtro de Kalman. Já estou um profissional neste problema. Não estou errando uma ultimamente.

Volatility Lab

A Stern School of Business da NYU criou um instituto voltado para o estudo da Volatilidade em mercados financeiros. Volatility Institute.
A primeira realização é o Vlab (Volatility Lab):

The
Volatility Laboratory provides real time measurement, modeling and forecasting of financial volatility and correlations for a wide spectrum of assets. Vlab blends together both classic models as well as some of the latest advances proposed in the financial econometrics literature. The aim of the project is to provide real time evidence on market dynamics for both researchers and practitioners.

domingo, março 15, 2009

Eu não mereço isso

Sábado eu estava com a minha namorada em uma loja de roupas que nós sempre vamos. Ela estava experimentando as roupas, e eu estava esperando. Enquanto isso em uma tv de lcd passavam uns clipes dessas bandinhas ridículas dessa coisa que dizem que é o novo "rock".
Horrível, mas no momento eu não estava prestando a mínima atenção. Estava ainda cansado da viagem, e de uma semana particularmente pesada. Estava pensando em alguns detalhes dos modelos que estou trabalhando.
O gerente da loja talvez estivesse com a impressão que a música estivesse me incomodando. Normalmente estaria, mas no dia eu não estava nem aí. Aí ele foi lá e trocou o DVD. Ele colocou um DVD do Fábio Júnior. Eu não mereço isso.
Dado que só teria música pop, com certeza eu prefereria a Beyonce. Por motivos óbvios.

sábado, março 14, 2009

Seminário

Confirmado o seminário. Ficou dia 19 as 14:30, no lab Epifisma no IMECC-Unicamp.

Seminários do grupo de Séries Temporais e Econometria

palestrante: Márcio Laurini

Estimação Bayesiana de Modelos de Estrutura a Termo de Taxas de Juros.

Resumo

Discutimos a estimação Bayesiana de modelos de fatores latentes para ajustar,
interpolar e prever a estrutura a termo das taxas de juros. Estes modelos são
extensões do modelo dinâmico de Nelson-Siegel-Svensson, incorporando fatores de
volatilidade estocástica, extensões para curvas de múltiplos países e a
imposição de restrições de não-arbitragem.
Aplicações empíricas são mostradas para a curva implícita em contratos de Swap
DIxPRÉ, U.S. Treasury, curvas de cupom cambial e contratos a termo de
Eurodólar.


Além disso se der tempo devo comentar sobre os procedimentos de bayesian shrinkage que estou implementando nos modelos de estrutura a termo.

Backup

Dia de fazer backups gerais. Trabalhei bastante nessa semana, e perder o trabalho feito seria bem chato. Como trabalhava em casa e na faculdade estava salvando tudo em um pendrive.
Mas depois que eu lavei uma calça com este pendrive dentro, acho que não é tão seguro continuar confiando nele. Ele continua funcionando, mas a função hazard dele com certeza mudou.

sexta-feira, março 13, 2009

Era Medieval

Se não me engano a cena é do Star Trek IV: The Voyage Home. Neste filme a tripulação da Enterprise volta no tempo para a Terra no sec. XX. Uma cena interessante é quando o Dr. McCoy está em um hospital, e acho que ele pergunta para uma senhora o que ela fazia no hospital. Ela responde que está indo fazer uma hemodiálise, o que deixa o bom Dr. McCoy totalmente chocado com esta tecnologia primitiva. Nesse momento ele dá um comprimido para a senhora, e este comprimido leva a formação de novos rins.
Me sinto da mesma forma que o pobre Dr. McCoy quando preciso estimar modelos mais complicados de estrutura a termo usando o filtro de Kalman. De volta a Era Medieval.

Leitura do Dia - The Bayesian Lasso

The Bayesian Lasso

Trevor PARK and George CASELLA

The Lasso estimate for linear regression parameters can be interpreted as a Bayesian posterior mode estimate when the regression parameters have independent Laplace (i.e., double-exponential) priors. Gibbs sampling from this posterior is possible using an expanded hierarchy with conjugate normal priors for the regression parameters and independent exponential priors on their variances. A connection with the inverse-Gaussian distribution provides tractable full conditional distributions. The Bayesian Lasso provides interval estimates (Bayesian credible
intervals) that can guide variable selection. Moreover, the structure of the hierarchical model provides both Bayesian and likelihood methods for selecting the Lasso parameter. Slight modifications lead to Bayesian versions of other Lasso-related estimation methods, including bridge regression and a robust variant.
KEY WORDS: Empirical Bayes; Gibbs sampler; Hierarchical model; Inverse Gaussian; Linear regression; Penalized regression; Scale mixture of normals.


Belíssimo e extremamente útil artigo.

quinta-feira, março 12, 2009

Viva Laplace


Viva Laplace, a distribuição e não o Laplace em pessoa.
Ela vai me servir para um propósito muito interessante.

quarta-feira, março 11, 2009

No limite

Eu já estava planejando dar uma acelerada nas pesquisas em andamento, principalmente as coisas da tese. Com o seminário marcado eu me tenho um deadline para terminar as estimações, principalmente no primeiro artigo de estrutura a termo.
Mas hoje fiquei trabalhando direto de antes de 8 da manhã até agora pouco reestimando e corrigindo as estimações. E ainda precisei fazer umas estimações usando o filtro de Kalman, que neste caso com um espaço paramétrico enorme é um pântano.
Eu estava um zumbi até agora pouco, e nem mesmo a academia conseguiu me animar hoje. Espero que amanhã eu consiga terminar tudo, e aí boto a mão nas outras pesquisas.

Seminário sobre estimação de modelos de estrutura a termo de taxas de juros

Acho que dia 19 de março vou dar um seminário no Imecc-Unicamp sobre os modelos de estrutura a termo de taxas de juros que estou trabalhando, com as últimas extensões que eu implementei. O título e o resumo devem ser algo como o colocado abaixo. Confirmando eu coloco aqui os detalhes.


Título - Estimação Bayesiana de Modelos de Estrutura a Termo de Taxas de Juros.

Resumo

Discutimos a estimação Bayesiana de modelos de fatores latentes para ajustar, interpolar e prever a estrutura a termo das taxas de juros. Estes modelos são extensões do modelo dinâmico de Nelson-Siegel-Svensson, incorporando fatores de volatilidade estocástica, extensões para curvas de múltiplos países e a imposição de restrições de não-arbitragem.
Aplicações empíricas são mostradas para a curva implícita em contratos de Swap DIxPRÉ, U.S. Treasury, curvas de Cupom Cambial e contratos a termo de Eurodólar.

terça-feira, março 10, 2009

Seminário

segunda-feira, março 09, 2009

Arbitragem

Trabalhando nos detalhes do modelo de não-arbitragem. Algumas condições técnicas são mais complicadas na estimação bayesiana com a imposição de não-arbitragem, mas dá para resolver.
Mas dá um bocado de trabalho na programação, e os dados que estou usando tem o velho problema de serem criados por um método que permite arbitragem, o que complica a estimação. Seria mais fácil usar um outro conjunto de dados, mas a literatura usa estes dados (Fama-Bliss). É importante poder comparar os resultados.
Enquanto isso vou terminando de rodar todos os modelos de comparação para o artigo com multiplas curvas, já computando todas as medidas preditivas.

sábado, março 07, 2009

Agora também é livre de arbitragem


Depois de muito trabalho e suor, agora o modelo de estrutura de termo de fatores latentes que eu coloquei na tese também é livre de arbitragem.
Era a última extensão importante que estava faltando, e junto com a modificação para curvas de multiplos países, agora eu finalmente sinto que o modelo está bem desenvolvido.

Presentes

Abaixo a lista dos presentes que eu me dei de aniversário. Livros bem densos, mas que espero que sejam úteis para o resto da vida.

Novas Aquisições - Estatística Bayesiana


Elements of Bayesian Statistics. Jean-Pierre Florens, Michel Mouchart e Jean-Marie Rolin.

Estava atrás deste livro há um bom tempo. Talvez o tratamento mais sistemático de temas como identificação, suficiência e ancilaridade em teoria Bayesiana. Identificação talvez seja um dos pontos mais fortes da inferência Bayesiana em relação aos métodos de inferência clássica, e ao mesmo tempo um dos menos estudados. Pelo que pesquisei a única discussão sistemática deste assunto está neste livro, e como é um tema que acho de fundamental importância nas pesquisas que eu faço esse livro era obrigatório.

Novas Aquisições - Inferência para Difusões


Statistical Inference for Diffusion Type Process. B.L.S. Prakasa Rao.
A referência sobre estimação de processos em tempo contínuo. Ainda a obra mais importante nesta área, mesmo sendo um livro editado em 1999.

Novas Aquisições - Teoria Assintótica


Asymptotic Theory of Statistica Inference for Time Series. Masanobu Taniguchi e Yoshihide Kakizawa.
Um livro bastante avançado sobre teoria assintótica para séries temporais, com um tratamento detalhado sobre processos de memória longa, modelos não lineares e processos em tempo contínuo.
Um livro bastante difícil, mas espero que ele seja útil com um estudo detalhado nos próximos anos.

Novas Aquisições - História da Estatística

Uma Senhora Toma Chá: Como a Estatística Revolucionou a Ciência no Século XX. David Salzburg.

Eu não conhecia o livro, e a vi a dica no Gustibus. O livro é uma introdução informal aos desenvolvimentos da teoria estatística, desde a sua criação. Vale a leitura.
Nesta edição existe uma introdução do autor a edição brasileira, aonde o autor comenta sobre alguns estatísticos brasileiros importantes. Citando com muito mérito as contribuições importantíssimas do Prof. Pedro Morettin, uma das referências mais importantes em séries temporais e análise estatística por Wavelets; Gilberto Paula , com seus modelos de análise de influência, entre outros. Mas faltou muita gente importante. De cara eu lembro de todo o pessoal Bayesiano, com o exemplo mais importante de Hélio Migon, que era o brasileiro mais citado no exterior, com seu fundamental artigo de análise Bayesiana de Séries Temporais. Ou então a geração mais nova, como o Marcelo Moreira da Epge com artigos muito importantes sobre weak instruments.
Estatística é uma área em que o Brasil mostra importância, existindo sistematicamente publicações nas revistas mais importantes da área.

Novas Aquisições - Starship Troopers

Starship Troopers, Robert Heinlein. O polêmico e divertido livro de Heinlein, na fase militarista. O mesmo autor de Stranger in a Strange Land, talvez o livro mais hippie já feito. A adaptação gerou um filme bem divertido, que não teve vergonha da mensagem do livro.

Novo Qualis

Ontem foi divulgado o novo Qualis. Bom, quase todo ele. O da área de Economia não saiu ainda.
Como esperado a área de Economia não resolveu a tempo. Nas áreas que olhei o Qualis parece bem acertado. Algumas revistas em lugares estranhos (revistas de alta reputação mas impacto não tão elevado), mas no geral parece bem razoável.

quarta-feira, março 04, 2009

Trabalhando

Achei que com o fim dos créditos daria para trabalhar com mais calma. Engano. Vários problemas e tarefas ocupando o dia. Bom, existe a necessidade do salário.
Mas aos poucos vou finalizando uma versão para multiplas curvas de juros do modelo de um dos modelos estrutura a termo que eu coloquei na tese. Os resultados parecem promissores. De quebra implementei uma versão completa do modelo que está Diebold, F.X., Li, C. and Yue, V. (2008), "Global Yield Curve Dynamics and Interactions: A Generalized Nelson-Siegel Approach," Journal of Econometrics, 146, 351-363. Nessa versão eles fazem uma série de simplificações e usam uma estimação incomum que mistura estimação clássica e por MCMC. Eu implementei o modelo completo (com todos os fatores de nível, inclinação e dois fatores de curvatura) enquanto que eles só tem um fator de nível. Realmente é bem pesado para estimar, mas funciona.
A ultima etapa é realizar a comparação entre modelos. Acabei com 10 modelos diferentes, e é bem chato realizar estas comparações, criar as tabelas, etc etc. Mas é só isso que falta (e escrever a versão final). Não anda sobrando muito tempo para as minhas pesquisas, mas no pouco que sobra vou tentanto produzir algo.

segunda-feira, março 02, 2009

Leitura do Dia - A MULTICURRENCY EXTENSION OF THE LOGNORMAL INTEREST RATE MARKET MODELS

A MULTICURRENCY EXTENSION OF THE LOGNORMAL INTEREST RATE MARKET MODELS
ERIK SCHLöGL

Abstract. The Market Models of the term structure of interest rates, in which forward LIBOR or forward swap rates are modelled to be lognormal under the forward probability measure of the corresponding maturity, are extended to a multicurrency setting. If lognormal dynamics are assumed for forward LIBOR or forward swap rates in two currencies, the forward exchange rate linking the two currencies can only be chosen to be lognormal for one maturity, with the dynamics for all other maturities given by no{arbitrage relationships.
Alternatively, one could choose forward interest rates in only one currency, say the domestic, to be lognormal and postulate lognormal dynamics for all forward exchange rates, with the dynamics of foreign interest rates determined by no-arbitrage relationships.