1. Le problème de la veille scientifique
1. The research overload problem
En physique théorique et mathématiques, un chercheur doit en moyenne maîtriser 3 à 5 sous-disciplines pour lire un article de pointe. Un papier sur la viscosité quantique en théorie des cordes suppose des notions de géométrie différentielle, de supersymétrie, de théorie conforme des champs et de fluides relativistes — rarement explicitées dans le texte.
In theoretical physics and mathematics, a researcher typically needs to master 3 to 5 sub-disciplines to read a cutting-edge paper. A paper on quantum viscosity in string theory assumes knowledge of differential geometry, supersymmetry, conformal field theory, and relativistic fluids — rarely spelled out in the text.
Statistique : ArXiv reçoit ~2 000 soumissions par jour en physique et mathématiques. Un chercheur lié à un thème spécifique peut recevoir >50 papiers pertinents par semaine, soit bien plus qu’une capacité de lecture raisonnable.
Stat: ArXiv receives ~2,000 submissions per day in physics and mathematics. A researcher focused on a specific theme may receive >50 relevant papers per week — far beyond a reasonable reading capacity.
ThotBook MCP résout trois problèmes concrets : trouver rapidement les papiers pertinents, comprendre ce qu’il faut savoir avant de les lire, et générer un cours structuré pour accélérer la montée en compétences.
ThotBook MCP solves three concrete problems: quickly finding relevant papers, understanding what you need to know before reading them, and generating a structured course to accelerate skill acquisition.
2. Recherche ArXiv en langage naturel
2. Natural-language ArXiv search
La première fonctionnalité de ThotBook MCP est la recherche sémantique dans ArXiv. Plutôt que de construire une requête Boolean complexe, vous décrivez votre intérêt en langage naturel, et le MCP construit et exécute une requête optimisée.
The first capability of ThotBook MCP is semantic search across ArXiv. Rather than building a complex Boolean query, you describe your interest in natural language, and the MCP builds and executes an optimized query.
Exemple : volatility rugueuse et EDS
Example: rough volatility and SDEs
# Via the MCP tool in your AI assistant
result = thotbook.arxiv_search(
query="rough volatility stochastic Volterra equations Heston model",
max_results=5,
categories=["q-fin.MF", "math.PR"]
)
[
{
"id": "2302.04854",
"title": "Rough Volatility: Fact or Artefact?",
"authors": ["Cont, R.", "Das, P."],
"year": 2023,
"citations": 87,
"abstract_summary": "Challenges the rough volatility paradigm; shows
that apparent roughness may stem from statistical
artifacts in high-frequency data estimation...",
"key_equations": ["Volterra SDE", "fractional Brownian motion"],
"relevance_score": 0.94
},
]
Le MCP retourne des métadonnées structurées enrichies : résumé synthetisé, équations-clés détectées, score de pertinence. Ces résultats peuvent être redirigés directement vers les outils suivants.
The MCP returns enriched structured metadata: synthesized summary, detected key equations, relevance score. These results can be piped directly into the following tools.
En guise d’illustration, notons que le modèle de volatilité rugueuse Rough Bergomi modélise la variance instantanée par une EDS fractionnaire :
As an illustration, the Rough Bergomi volatility model describes instantaneous variance via a fractional SDE:
$$v_t = \xi_0(t)\,\mathcal{E}\!\left(\eta\,\sqrt{2H}\int_0^t (t-s)^{H-\frac{1}{2}}\,dW_s^1\right)$$
où \(H \in (0, \tfrac{1}{2})\) est l’exposant de Hurst, \(\xi_0(t)\) la structure à terme de variance initiale et \(\mathcal{E}\) l’exponentielle de Doléans-Dade. ThotBook MCP peut localiser, résumer et contextualiser les papiers fondateurs de ce modèle en quelques secondes.
where \(H \in (0, \tfrac{1}{2})\) is the Hurst exponent, \(\xi_0(t)\) the initial variance term structure, and \(\mathcal{E}\) the Doléans-Dade exponential. ThotBook MCP can locate, summarize, and contextualize the foundational papers of this model in seconds.
3. Génération d’arbres de prérequis
3. Prerequisite tree generation
Après avoir identifié un papier, la deuxième étape consiste à comprendre ce qu’il faut savoir pour l’aborder. paper_prerequisites analyse le contenu du papier et génère un arbre de dépendances.
After identifying a paper, the next step is understanding what you need to know to approach it. paper_prerequisites analyzes the paper content and generates a dependency tree.
prereqs = thotbook.paper_prerequisites(
paper_id="2302.04854",
depth=3,
target_level="graduate" # undergraduate | graduate | expert
)
▶ Rough Volatility (2302.04854)
├─ Stochastic Calculus (Itô integral)
├─ Brownian motion & Wiener measure
├─ Itô’s lemma (standard + multidimensional)
└─ SDEs: existence, uniqueness, Markov property
├─ Fractional Brownian Motion
├─ Self-similar processes & long-range dependence
├─ Hölder regularity & p-variation
└─ Malliavin calculus (basic)
├─ Volterra Equations
├─ Kernel operators & resolvent theory
└─ Stochastic Volterra integral equations
└─ Volatility Models
├─ Black-Scholes & local volatility
├─ Heston stochastic volatility (mean-reversion, Feller)
└─ VIX & realized variance estimation
└─ HAR model, realized kernel estimators
L’arbre est interactif dans le notebook : chaque nœud peut être développé (« expliquer ce concept ») ou compressé (« je maîtrise déjà cela »). La profondeur d’exploration est paramétrable, et le niveau cible (undergraduate à expert) ajuste la granularité des prérequis générés.
The tree is interactive in the notebook: each node can be expanded ("explain this concept") or collapsed ("I already know this"). Exploration depth is configurable, and the target level (undergraduate to expert) adjusts the granularity of generated prerequisites.
Cas d’usage typique : Un doctorant en physique mathématique veut comprendre les EDS de Volterra stochastiques. Il donne le papier au MCP, obtient l’arbre de prérequis, identifie les lacunes spécifiques (« je ne connais pas le calcul de Malliavin »), et le MCP génère un cours ciblé pour combler exactement ces lacunes.
Typical use case: A PhD student in mathematical physics wants to understand stochastic Volterra SDEs. They give the paper to the MCP, get the prerequisite tree, identify specific gaps ("I don't know Malliavin calculus"), and the MCP generates a targeted course to fill exactly those gaps.
4. Pourquoi le mouvement brownien fractionnaire n’est pas une semimartingale
4. Why fractional Brownian motion is not a semimartingale
C’est l’un des résultats les plus importants — et les plus mal compris — de la théorie des processus stochastiques. La plupart des cours d’EDS enseigne le calcul d’Itô en supposant implicitement que le processus sous-jacent est une semimartingale. Ceci est vrai pour le mouvement brownien standard, mais faux pour \(H \neq \tfrac{1}{2}\).
This is one of the most important — and most misunderstood — results in stochastic process theory. Most SDE courses teach Itô calculus implicitly assuming the underlying process is a semimartingale. This holds for standard Brownian motion, but is false for \(H \neq \tfrac{1}{2}\).
Définition et structure de covariance
Definition and covariance structure
Le mouvement brownien fractionnaire \((B^H_t)_{t \ge 0}\) d’exposant de Hurst \(H \in (0,1)\) est l’unique processus gaussien centré vérifiant :
The fractional Brownian motion \((B^H_t)_{t \ge 0}\) with Hurst exponent \(H \in (0,1)\) is the unique centered Gaussian process satisfying:
$$\mathbb{E}[B^H_t\, B^H_s] = \frac{1}{2}\!\left(t^{2H} + s^{2H} - |t-s|^{2H}\right)$$
Pour \(H = \tfrac{1}{2}\) on retrouve le brownien standard : \(\mathbb{E}[B_t B_s] = \min(t,s)\). Pour \(H > \tfrac{1}{2}\), les incréments sont positivement corrélés (mémoire longue) ; pour \(H < \tfrac{1}{2}\), ils sont négativement corrélés (anti-persistants). C’est cette dernière région, \(H < \tfrac{1}{2}\), qui capture la rugosité observée empiriquement sur la volatilité réalisée.
When \(H = \tfrac{1}{2}\) we recover standard Brownian motion: \(\mathbb{E}[B_t B_s] = \min(t,s)\). For \(H > \tfrac{1}{2}\), increments are positively correlated (long memory); for \(H < \tfrac{1}{2}\), negatively correlated (anti-persistent). This last regime, \(H < \tfrac{1}{2}\), captures the empirically observed roughness of realized volatility.
Le critère de la \(p\)-variation
The \(p\)-variation criterion
Une semimartingale \(X\) a une \(p\)-variation finie pour tout \(p > 2\). Plus précisément, la variation quadratique d’une semimartingale est un processus adapté dont les trajectoires sont à variation finie. Or, pour le MBF :
A semimartingale \(X\) has finite \(p\)-variation for all \(p > 2\). More precisely, the quadratic variation of a semimartingale is an adapted process with finite-variation paths. However, for fBm:
$$\sum_{k=0}^{n-1}\!\left|B^H_{t_{k+1}} - B^H_{t_k}\right|^p \;\xrightarrow[|\Pi|\to 0]{\mathbb{P}}\; \begin{cases} 0 & \text{if } pH > 1 \\ +\infty & \text{if } pH < 1 \end{cases}$$
Le seul cas où la variation quadratique est finie (et non triviale) est \(p = 1/H\). Pour \(H < \tfrac{1}{2}\), on a \(1/H > 2\) : la variation quadratique est infinie. Cela implique, par un théorème de Bichteler-Dellacherie, que \(B^H\) n’est pas une semimartingale lorsque \(H \neq \tfrac{1}{2}\).
The only case where the quadratic variation is finite (and non-trivial) is \(p = 1/H\). For \(H < \tfrac{1}{2}\), we have \(1/H > 2\): the quadratic variation is infinite. By the Bichteler-Dellacherie theorem, this implies \(B^H\) is not a semimartingale when \(H \neq \tfrac{1}{2}\).
Conséquence directe : La formule d’Itô ne s’applique pas à \(B^H\) pour \(H \neq \tfrac{1}{2}\). On ne peut pas écrire \(f(B^H_t) = f(B^H_0) + \int_0^t f'(B^H_s)\,dB^H_s + \tfrac{1}{2}\int_0^t f''(B^H_s)\,d[B^H]_s\) car le terme de correction quadratique est soit nul (\(H > \tfrac{1}{2}\)) soit infini (\(H < \tfrac{1}{2}\)). Il faut un cadre radicalement différent.
Direct consequence: Itô's formula does not apply to \(B^H\) when \(H \neq \tfrac{1}{2}\). One cannot write \(f(B^H_t) = f(B^H_0) + \int_0^t f'(B^H_s)\,dB^H_s + \tfrac{1}{2}\int_0^t f''(B^H_s)\,d[B^H]_s\) because the quadratic correction term is either zero (\(H > \tfrac{1}{2}\)) or infinite (\(H < \tfrac{1}{2}\)). A radically different framework is required.
La solution : les chemins rugueux de Lyons
The fix: Lyons' rough path theory
Terry Lyons (1998) a introduit la théorie des chemins rugueux pour donner un sens aux intégrales stochastiques pilotées par des processus qui ne sont pas des semimartingales. L’idée-clé est d’enrichir le signal \(B^H\) avec ses intégrales itérées jusqu’au niveau \(\lceil 1/H \rceil\) :
Terry Lyons (1998) introduced rough path theory to give meaning to stochastic integrals driven by processes that are not semimartingales. The key idea is to enhance the signal \(B^H\) with its iterated integrals up to level \(\lceil 1/H \rceil\):
$$\mathbf{B}^H_{s,t} = \left(B^H_{s,t},\; \mathbb{B}^H_{s,t},\; \ldots\right), \quad \mathbb{B}^H_{s,t} := \int_s^t (B^H_{r} - B^H_s)\otimes dB^H_r$$
Ce « chemin rugueux limité » \(\mathbf{B}^H\) n’est pas unique (il y a une liberté dans la partie antisymétrique de \(\mathbb{B}^H\)), mais une fois fixé, il détermine de façon déterministe la solution des EDS pilotées par \(B^H\). Cette approche, raffinée par Gubinelli (2004) sous le nom de contrôlés rugueux, est aujourd’hui le fondement théorique de tous les modèles de volatilité rugueuse.
This "lifted rough path" \(\mathbf{B}^H\) is not unique (there is freedom in the antisymmetric part of \(\mathbb{B}^H\)), but once fixed, it deterministically determines the solution of SDEs driven by \(B^H\). This approach, refined by Gubinelli (2004) under the name controlled rough paths, is today the theoretical foundation of all rough volatility models.
Pourquoi ThotBook le détecte : Un papier sur la volatilité rugueuse peut citer Lyons (1998), Friz & Victoir (2010), Bayer-Friz-Gatheral (2016), et Cont-Das (2023) sans jamais expliquer la chaîne de prérequis. ThotBook MCP reconstruit cette chaîne et la présente comme un DAG ordonné topologiquement, avec des « portes d’entrée » choisies selon votre niveau.
Why ThotBook detects this: A rough volatility paper may cite Lyons (1998), Friz & Victoir (2010), Bayer-Friz-Gatheral (2016), and Cont-Das (2023) without ever explaining the prerequisite chain. ThotBook MCP reconstructs this chain as a topologically sorted DAG, with "entry points" chosen according to your level.
5. Feynman-Kac : le pont secret entre EDP et EDS
5. Feynman-Kac: the hidden bridge between PDEs and SDEs
Nombreux sont les chercheurs qui apprennent à la fois la théorie des EDP paraboliques et le calcul stochastique, sans jamais réaliser qu’ils étudient la même chose sous deux habillages différents. Le théorème de Feynman-Kac en est la clé de voûte.
Many researchers learn both parabolic PDE theory and stochastic calculus without ever realizing they are studying the same thing under two different guises. The Feynman-Kac theorem is the linchpin.
Le théorème
The theorem
Soit \((X_t)\) la diffusion définie par l’EDS :
Let \((X_t)\) be the diffusion defined by the SDE:
$$dX_t = \mu(X_t)\,dt + \sigma(X_t)\,dW_t, \quad X_s = x$$
Et soit \(u(t,x)\) solution de l’EDP parabolique rétrograde (équation de Kolmogorov rétrograde) :
And let \(u(t,x)\) be the solution of the backward parabolic PDE (backward Kolmogorov equation):
$$\frac{\partial u}{\partial t} + \mu(x)\frac{\partial u}{\partial x} + \frac{\sigma^2(x)}{2}\frac{\partial^2 u}{\partial x^2} - r(x)\,u = 0, \quad u(T,x) = g(x)$$
Alors, sous des hypothèses de régularité standard, la solution admet la représentation probabiliste suivante :
Then, under standard regularity assumptions, the solution admits the following probabilistic representation:
$$u(t,x) = \mathbb{E}^{t,x}\!\left[g(X_T)\exp\!\left(-\int_t^T r(X_s)\,ds\right)\right]$$
Ce résultat est stupefiant : il affirme que résoudre une EDP = calculer une espérance. La solution de l’équation de la chaleur avec potentiel \(r\) est exactement l’espérance du payoff terminal escompté le long de trajectoires browniennes.
This result is striking: it states that solving a PDE = computing an expectation. The solution of the heat equation with potential \(r\) is exactly the expectation of the discounted terminal payoff along Brownian paths.
Black-Scholes comme cas particulier
Black-Scholes as a special case
Choisissons \(\mu(x) = rx\), \(\sigma(x) = \sigma x\) (dynamique log-normale), \(r(x) = r\) (taux sans risque constant), et \(g(x) = (x-K)^+\) (payoff call européen). L’équation de Feynman-Kac devient exactement l’équation de Black-Scholes :
Choose \(\mu(x) = rx\), \(\sigma(x) = \sigma x\) (log-normal dynamics), \(r(x) = r\) (constant risk-free rate), and \(g(x) = (x-K)^+\) (European call payoff). The Feynman-Kac equation becomes exactly the Black-Scholes PDE:
$$\frac{\partial V}{\partial t} + rxS\frac{\partial V}{\partial S} + \frac{\sigma^2 S^2}{2}\frac{\partial^2 V}{\partial S^2} - rV = 0$$
et la représentation probabiliste est la formule de Black-Scholes elle-même :
and the probabilistic representation is the Black-Scholes formula itself:
$$V(t,S) = e^{-r(T-t)}\,\mathbb{E}^{t,S}\!\left[(S_T - K)^+\right] = S\,\Phi(d_+) - Ke^{-r(T-t)}\Phi(d_-)$$
Insight non-trivial : Cela signifie que tout code de Monte Carlo qui simule des trajectoires géométriques browniennes et calcule l’espérance des payoffs est en réalité un solveur EDP numérique déguisé. Inversement, les schémas aux différences finies pour l’équation de Black-Scholes approximent des espérances stochastiques. Les deux communautés (PDE et probabilistes) travaillent souvent en parallèle sans le savoir.
Non-trivial insight: This means that any Monte Carlo code that simulates geometric Brownian paths and computes expected payoffs is actually a disguised numerical PDE solver. Conversely, finite-difference schemes for the Black-Scholes equation approximate stochastic expectations. The two communities (PDE and probabilistic) often work in parallel without realizing it.
Pourquoi les papiers ArXiv sont si difficiles à lire
Why ArXiv papers are so hard to read
Un papier sur la valorisation par EDP peut supposer que le lecteur connaît déjà la représentation probabiliste, et vice-versa. Un papier sur les EDS de Volterra écrira \(\partial_t u + \mathcal{L}u = 0\) sans expliquer que \(\mathcal{L}\) est le générateur infinitésimal de la diffusion — notion qui appartient à la fois aux EDP et aux EDS mais est rarement enseignée comme pont explicite entre les deux.
A paper on PDE-based pricing may assume the reader already knows the probabilistic representation, and vice versa. A paper on Volterra SDEs will write \(\partial_t u + \mathcal{L}u = 0\) without explaining that \(\mathcal{L}\) is the infinitesimal generator of the diffusion — a concept belonging to both PDEs and SDEs but rarely taught as an explicit bridge between the two.
ThotBook MCP détecte automatiquement ces ponts conceptuels et les rend explicites dans l’arbre de prérequis, avec des références croisées vers les deux littératures.
ThotBook MCP automatically detects these conceptual bridges and makes them explicit in the prerequisite tree, with cross-references to both literatures.
6. La connaissance mathématique comme graphe orienté acyclique
6. Mathematical knowledge as a directed acyclic graph
Voici une idée centrale qui motive la conception de ThotBook MCP : la structure de la connaissance mathématique est, fondamentalement, un graphe orienté acyclique (DAG). Chaque théorème dépend de lemmes, chaque lemme de définitions, chaque définition de structures plus primitives. Il n’y a pas de cycles : on ne peut pas comprendre le théorème de Novikov en ignorant le processus de Girsanov, ni comprendre Girsanov sans la mesure de Wiener.
Here is a central idea that motivates ThotBook MCP's design: the structure of mathematical knowledge is, fundamentally, a directed acyclic graph (DAG). Every theorem depends on lemmas, every lemma on definitions, every definition on more primitive structures. There are no cycles: one cannot understand the Novikov theorem while ignoring the Girsanov process, nor understand Girsanov without Wiener measure.
Tri topologique = ordre de lecture optimal
Topological sort = optimal reading order
Formellement, soit \(G = (V, E)\) le graphe des prérequis, où \((u, v) \in E\) signifie « comprendre \(v\) nécessite de comprendre \(u\) d’abord ». Un tri topologique de \(G\) produit un ordre linéaire des nœuds tel que tout arc pointe vers l’avant. C’est l’ordre de lecture qui minimise le nombre de « concepts non définis rencontrés » à tout instant.
Formally, let \(G = (V, E)\) be the prerequisite graph, where \((u, v) \in E\) means "understanding \(v\) requires understanding \(u\) first". A topological sort of \(G\) produces a linear ordering of nodes such that every edge points forward. This is the reading order that minimizes the number of "undefined concepts encountered" at every point.
Théorème : Un DAG admet un tri topologique si et seulement s’il est acyclique (algorithme de Kahn, 1962). L’ordre n’est pas unique en général — l’ensemble des tris valides forme le treillis des extensions linéaires du DAG, dont la cardinalité peut être exponentielle en \(|V|\). ThotBook sélectionne un tri optimal par rapport à votre profil de compétences déclaré.
Theorem: A DAG admits a topological sort if and only if it is acyclic (Kahn's algorithm, 1962). The ordering is not unique in general — the set of valid sorts forms the lattice of linear extensions of the DAG, whose cardinality can be exponential in \(|V|\). ThotBook selects an optimal sort relative to your declared skill profile.
Exemple travaillé : le modèle de Heston
Worked example: the Heston model
Considérons le modèle de Heston (1993), qui décrit la dynamique jointe du prix \(S_t\) et de la variance \(v_t\) :
Consider the Heston model (1993), which describes the joint dynamics of price \(S_t\) and variance \(v_t\):
$$dS_t = rS_t\,dt + \sqrt{v_t}\,S_t\,dW^1_t$$
$$dv_t = \kappa(\theta - v_t)\,dt + \xi\sqrt{v_t}\,dW^2_t, \quad d\langle W^1, W^2\rangle_t = \rho\,dt$$
Pour comprendre pourquoi ce modèle est tractable (et comment dériver son prix d’option par transformée de Fourier), voici la chaîne DAG complète :
To understand why this model is tractable (and how to derive its option price via Fourier transform), here is the complete DAG chain:
▶ Heston option pricing
├─ Lemme d’Itô multidimensionnel [bridge to SDE theory]
├─ Variation quadratique croisée \(\langle W^1, W^2\rangle\)
└─ Mouvement brownien corrélé via factorisation de Cholesky
├─ Processus CIR (\(v_t\) est la solution du modèle CIR)
├─ Condition de Feller : \(2\kappa\theta \ge \xi^2\) (garantit \(v_t > 0\))
└─ Distribution non-centrale du \(\chi^2\) (transition exacte)
├─ Générateur infinitésimal et équation de Kolmogorov rétrograde
└─ Pont Feynman-Kac : \(V = \mathbb{E}[e^{-r(T-t)}(S_T-K)^+]\)
├─ Fonction caractéristique du log-prix (forme affine fermée)
├─ Systèmes affines de Duffie-Pan-Singleton
└─ Equations de Riccati complexes (\(\alpha, \beta\) sous le signe exp)
└─ Inversion par transformée de Fourier (Carr-Madan)
├─ Fonction de Fourier carré intégrable, distribution tempérée
└─ Quadrature de Gauss-Legendre pour l’inversion numérique
Ce DAG de 13 nœuds n’est jamais explicité dans le papier original de Heston. Un lecteur non averti qui ne connaît pas la condition de Feller passera des heures à se demander pourquoi la variance reste positive. Un lecteur qui ignore les systèmes affines ne comprendra pas pourquoi la fonction caractéristique a une forme fermée — alors que ce n’est qu’un corollaire de la théorie générale de Duffie-Pan-Singleton (2000).
This 13-node DAG is never made explicit in Heston's original paper. An unprepared reader unfamiliar with the Feller condition will spend hours wondering why variance stays positive. A reader unaware of affine systems won't understand why the characteristic function has a closed form — even though it is merely a corollary of the general Duffie-Pan-Singleton (2000) theory.
La détection automatique de ThotBook
ThotBook's automatic detection
ThotBook MCP reconstruit ce DAG en analysant le papier et en l’enrichissant avec sa base de connaissance mathématique. Il identifie :
ThotBook MCP reconstructs this DAG by analyzing the paper and enriching it with its mathematical knowledge base. It identifies:
- Les théorèmes implicitement invoqués (ex : « il est connu que... »)The implicitly invoked theorems (e.g., "it is well known that...")
- Les ponts inter-domaines (ici : Feynman-Kac relie la section EDP à la section Monte Carlo)The cross-domain bridges (here: Feynman-Kac links the PDE section to the Monte Carlo section)
- Les lacunes de notation : \(\mathcal{E}(\cdot)\) peut désigner l’exponentielle de Doléans-Dade ou une schéma de discrétisation selon le contexteThe notation ambiguities: \(\mathcal{E}(\cdot)\) can denote the Doléans-Dade exponential or a discretization scheme depending on context
- Le niveau d’entrée optimal selon votre profil : pour un expert en probabilités, l’arbre est élagüé aux nœuds connus ; pour un étudiant de M2, il est développé depuis les définitions de baseThe optimal entry point for your profile: for a probability expert, the tree is pruned to unknown nodes; for an MSc student, it is expanded from basic definitions
Ce que les chercheurs disent : « J’ai passé 3 semaines sur le papier de Bayer-Friz-Gatheral avant de réaliser que je n’avais pas les bases des EDS de Volterra. ThotBook me l’aurait dit en 5 secondes. » — doctorant en mathématiques financières, ETH Zürich.
What researchers say: "I spent 3 weeks on the Bayer-Friz-Gatheral paper before realizing I didn't have the foundations of Volterra SDEs. ThotBook would have told me in 5 seconds." — PhD student in mathematical finance, ETH Zürich.
7. Génération de cours — aperçu
7. Course generation — preview
La fonctionnalité la plus puissante de ThotBook MCP est la génération de cours Jupyter interactifs à partir d’un papier ou d’un nœud de prérequis. Voici un aperçu partiel de la sortie :
The most powerful ThotBook MCP capability is generating interactive Jupyter courses from a paper or a prerequisite node. Here is a partial preview of the output:
course = thotbook.generate(
topic="Stochastic Volterra equations — from Itô to Rough Vol",
style="lecture", # lecture | exercises | cheat-sheet
depth="graduate",
include_exercises=True,
target_paper="2302.04854"
)
# Returns a .ipynb file with structured cells
# Stochastic Volterra Equations: From Itô to Rough Volatility
## 1.1 Motivation: Why classical SDEs are insufficient
The Heston model postulates mean-reverting variance ...
$$ X_t = X_0 + \int_0^t K(t-s) b(s, X_s)\,ds + \int_0^t K(t-s)\sigma(s,X_s)\,dW_s $$
Given K(t) = t^(H-1/2), show that sample paths have Hölder
exponent strictly less than H ...
import numpy as np
from scipy.special import gamma
🔒
Accès réservé aux abonnés
Subscriber access only
Le notebook complet est disponible avec un abonnement HFThot Research Lab.
The full notebook is available with an HFThot Research Lab subscription.
Voir les offres
View plans
8. Accès au notebook complet
8. Access the full notebook
Le notebook démo accessible aux abonnés couvre l’intégralité du pipeline ThotBook MCP :
The subscriber demo notebook covers the full ThotBook MCP pipeline:
📓 Notebook : ThotBook MCP — Physique & Maths
📓 Notebook: ThotBook MCP — Physics & Maths
- Recherche ArXiv multi-critères avec scoring de pertMulti-criteria ArXiv search with relevance scoring
- Génération d’arbre de prérequis interactif (depth=5)Interactive prerequisite tree generation (depth=5)
- Explication structurée de papier (abstract → equa → proof)Structured paper explanation (abstract → equations → proof)
- Génération de cours Jupyter complet avec exercicesFull Jupyter course generation with exercises
- Export vers Delta Lake / Polarway pour persistanceExport to Delta Lake / Polarway for persistence
- Veille automatique : alertes hebdomadaires ArXivAutomated monitoring: weekly ArXiv alerts
Disponible dans le plan Research Lab dès l’abonnement.
Available in the Research Lab plan from day one.
S’abonner — accéder au notebook
Subscribe — access the notebook
Documentation MCP
MCP Documentation
Technologie : ThotBook MCP est implémenté selon la spécification Model Context Protocol d’Anthropic. Il fonctionne avec Claude, GPT-4 et tout assistant compatible MCP. L’intégration se fait en une ligne dans .vscode/mcp.json.
Technology: ThotBook MCP is implemented according to Anthropic's Model Context Protocol specification. It works with Claude, GPT-4, and any MCP-compatible assistant. Integration takes one line in .vscode/mcp.json.