An den banalen Umstand, dass jeder literarische Text einen bestimmten Umfang hat, knüpfen sich einige Fragen, die bisher noch kaum gestellt wurden; Fragen etwa nach dem Einfluss von Textlängen auf Rezeptions-, Interpretations- und Kanonisierungsprozesse. Eine Theorie des literarischen Textumfangs fehlt bisher, ist jedoch unter den Bedingungen einer Digitalen Literaturwissenschaft umso dringlicher, da ohne eine entsprechende Klärung die Bedeutung der quantitativen Grenzen des literarischen Erbes nicht angemessen diskutiert werden kann. Bisher ist eher von der Gesamtzahl gescannter Bücher oder Volltexte die Rede, aber kaum von deren jeweiligem Umfang. In diesem Aufsatz versuchen wir daher zwei Dinge: Zum einen möchten wir den Diskurs zum Thema ‚literarischer Textumfang‘ miteröffnen, indem wir einige bisher nur vereinzelt zu findende Überlegungen zur Bedeutung von Textumfängen zusammenführen. Zum anderen sollen die Grundzüge eines Frameworks zur Beforschung entsprechender empirischer Daten beschrieben werden. Letzteres geschieht anhand zweier Metadatensätze, einerseits bezogen auf den weltliterarisch orientierten Kanon 1001 Books You Must Read Before You Die aus dem Jahr 2006, andererseits auf den Katalog der Deutschen Nationalbibliothek (DNB), aus dem wir 180.000 als Roman verschlagwortete Bücher gefiltert haben. Um die DNB-Katalogdaten zu qualifizieren, wurden sie mit der freien Wissensdatenbank Wikidata vernetzt. Da sich beide Datensätze nicht aus Volltexten, sondern aus Metadaten konstituieren, basieren unsere Ergebnisse zwangsläufig auf der Buchseite als Einheit der Textumfangsmessung. In Zukunft wird ein solches Framework auch die Anzahl von Wörtern oder Zeichen in Betracht ziehen müssen, um die variabel-invariable Doppelnatur des literarischen Textumfangs angemessen diskutieren und komparatistisch nutzbar machen zu können.