]> git.lyx.org Git - lyx.git/blobdiff - lib/lyx2lyx/lyx_2_4.py
Added Adobe Source Pro fonts to lyx-GUI
[lyx.git] / lib / lyx2lyx / lyx_2_4.py
index c00e63014844f4589ee8232342bc2be5ea1c646a..bbc184e5bedc43c28bd7919db6c59822ea6c3def 100644 (file)
@@ -22,14 +22,17 @@ import re, string
 import unicodedata
 import sys, os
 
+from datetime import (datetime, date, time)
+
 # Uncomment only what you need to import, please.
 
 from parser_tools import (count_pars_in_inset, find_end_of_inset, find_end_of_layout,
-find_token, get_bool_value, get_option_value, get_value, get_quoted_value) 
+                          find_token, find_re, get_bool_value, get_containing_layout,
+                          get_option_value, get_value, get_quoted_value)
 #    del_token, del_value, del_complete_lines,
-#    find_complete_lines, find_end_of, 
+#    find_complete_lines, find_end_of,
 #    find_re, find_substring, find_token_backwards,
-#    get_containing_inset, get_containing_layout,
+#    get_containing_inset,
 #    is_in_inset, set_bool_value
 #    find_tokens, find_token_exact, check_token
 
@@ -41,7 +44,222 @@ from lyx2lyx_tools import (put_cmd_in_ert, add_to_preamble)
 ####################################################################
 # Private helper functions
 
+def add_preamble_fonts(document, fontmap):
+    " Add collected font-packages with their option to user-preamble"
 
+    for pkg in fontmap:
+        if len(fontmap[pkg]) > 0:
+            xoption = "[" + ",".join(fontmap[pkg]) + "]"
+        else:
+            xoption = ""
+        preamble = "\\usepackage" + xoption + "{%s}" % pkg
+        add_to_preamble(document, [preamble])
+
+
+def createkey(pkg, options):
+    options.sort()
+    return pkg + ':' + "-".join(options)
+
+class fontinfo:
+    def __init__(self):
+        self.fontname = None    # key into font2pkgmap
+        self.fonttype = None    # roman,sans,typewriter,math
+        self.scaletype = None   # None,sf,tt
+        self.scaleopt = None    # None, 'scaled', 'scale'
+        self.scaleval = 1
+        self.package = None
+        self.options = []
+        self.pkgkey = None      # key into pkg2fontmap
+
+    def addkey(self):
+        self.pkgkey = createkey(self.package, self.options)
+
+class fontmapping:
+    def __init__(self):
+        self.font2pkgmap = dict()
+        self.pkg2fontmap = dict()
+        self.pkginmap = dict()  # defines, if a map for package exists
+
+    def expandFontMapping(self, font_list, font_type, scale_type, pkg, scaleopt = None):
+        " Expand fontinfo mapping"
+        #
+        # fontlist:    list of fontnames, each element
+        #              may contain a ','-separated list of needed options
+        #              like e.g. 'IBMPlexSansCondensed,condensed'
+        # font_type:   one of 'roman', 'sans', 'typewriter', 'math'
+        # scale_type:  one of None, 'sf', 'tt'
+        # pkg:         package defining the font. Defaults to fontname if None
+        # scaleopt:    one of None, 'scale', 'scaled', or some other string
+        #              to be used in scale option (e.g. scaled=0.7)
+        for fl in font_list:
+            fe = fontinfo()
+            fe.fonttype = font_type
+            fe.scaletype = scale_type
+            flt = fl.split(",")
+            font_name = flt[0]
+            fe.fontname = font_name
+            fe.options = flt[1:]
+            fe.scaleopt = scaleopt
+            if pkg == None:
+                fe.package = font_name
+            else:
+                fe.package = pkg
+            fe.addkey()
+            self.font2pkgmap[font_name] = fe
+            if fe.pkgkey in self.pkg2fontmap:
+                # Repeated the same entry? Check content
+                if self.pkg2fontmap[fe.pkgkey] != font_name:
+                    document.error("Something is wrong in pkgname+options <-> fontname mapping")
+            self.pkg2fontmap[fe.pkgkey] = font_name
+            self.pkginmap[fe.package] = 1
+
+    def getfontname(self, pkg, options):
+        options.sort()
+        pkgkey = createkey(pkg, options)
+        if not pkgkey in self.pkg2fontmap:
+            return None
+        fontname = self.pkg2fontmap[pkgkey]
+        if not fontname in self.font2pkgmap:
+            document.error("Something is wrong in pkgname+options <-> fontname mapping")
+            return None
+        if pkgkey == self.font2pkgmap[fontname].pkgkey:
+            return fontname
+        return None
+
+def createFontMapping():
+    # Create info for known fonts for the use in
+    #   convert_latexFonts() and
+    #   revert_latexFonts()
+    #
+    # * Would be more handy to parse latexFonts file,
+    #   but the path to this file is unknown
+    # * For now, add DejaVu and IBMPlex only.
+    # * Expand, if desired
+    fm = fontmapping()
+    fm.expandFontMapping(['DejaVuSerif', 'DejaVuSerifCondensed'], "roman", None, None)
+    fm.expandFontMapping(['DejaVuSans','DejaVuSansCondensed'], "sans", "sf", None, "scaled")
+    fm.expandFontMapping(['DejaVuSansMono'], "typewriter", "tt", None, "scaled")
+    fm.expandFontMapping(['IBMPlexSerif', 'IBMPlexSerifThin,thin',
+                          'IBMPlexSerifExtraLight,extralight', 'IBMPlexSerifLight,light',
+                          'IBMPlexSerifSemibold,semibold'],
+                         "roman", None, "plex-serif")
+    fm.expandFontMapping(['IBMPlexSans','IBMPlexSansCondensed,condensed',
+                          'IBMPlexSansThin,thin', 'IBMPlexSansExtraLight,extralight',
+                          'IBMPlexSansLight,light', 'IBMPlexSansSemibold,semibold'],
+                         "sans", "sf", "plex-sans", "scale")
+    fm.expandFontMapping(['IBMPlexMono', 'IBMPlexMonoThin,thin',
+                          'IBMPlexMonoExtraLight,extralight', 'IBMPlexMonoLight,light',
+                          'IBMPlexMonoSemibold,semibold'],
+                         "typewriter", "tt", "plex-mono", "scale")
+    fm.expandFontMapping(['ADOBESourceSerifPro'], "roman", None, "sourceserifpro")
+    fm.expandFontMapping(['ADOBESourceSansPro'], "sans", "sf", "sourcesanspro", "scaled")
+    fm.expandFontMapping(['ADOBESourceCodePro'], "typewriter", "tt", "sourcecodepro", "scaled")
+    return fm
+
+def convert_fonts(document, fm):
+    " Handle font definition to LaTeX "
+
+    rpkg = re.compile(r'^\\usepackage(\[([^\]]*)\])?\{([^\}]+)\}')
+    rscaleopt = re.compile(r'^scaled?=(.*)')
+
+    i = 0
+    while i < len(document.preamble):
+        i = find_re(document.preamble, rpkg, i)
+        if i == -1:
+            return
+        mo = rpkg.search(document.preamble[i])
+        if mo == None or mo.group(2) == None:
+            options = []
+        else:
+            options = mo.group(2).replace(' ', '').split(",")
+        pkg = mo.group(3)
+        o = 0
+        oscale = 1
+        while o < len(options):
+            mo = rscaleopt.search(options[o])
+            if mo == None:
+                o += 1
+                continue
+            oscale = mo.group(1)
+            del options[o]
+            break
+
+        if not pkg in fm.pkginmap:
+            i += 1
+            continue
+        # determine fontname
+        fn = fm.getfontname(pkg, options)
+        if fn == None:
+            i += 1
+            continue
+        del document.preamble[i]
+        fontinfo = fm.font2pkgmap[fn]
+        if fontinfo.scaletype == None:
+            fontscale = None
+        else:
+            fontscale = "\\font_" + fontinfo.scaletype + "_scale"
+            fontinfo.scaleval = oscale
+
+        if i > 0 and document.preamble[i-1] == "% Added by lyx2lyx":
+            del document.preamble[i-1]
+        if fontscale != None:
+            j = find_token(document.header, fontscale, 0)
+            if j != -1:
+                val = get_value(document.header, fontscale, j)
+                vals = val.split()
+                scale = "100"
+                if oscale != None:
+                    scale = "%03d" % int(float(oscale) * 100)
+                document.header[j] = fontscale + " " + scale + " " + vals[1]
+        ft = "\\font_" + fontinfo.fonttype
+        j = find_token(document.header, ft, 0)
+        if j != -1:
+            val = get_value(document.header, ft, j)
+            vals = val.split()
+            document.header[j] = ft + ' "' + fn + '" ' + vals[1]
+
+def revert_fonts(document, fm, fontmap):
+    " Revert native font definition to LaTeX "
+    # fonlist := list of fonts created from the same package
+    # Empty package means that the font-name is the same as the package-name
+    # fontmap (key = package, val += found options) will be filled
+    # and used later in add_preamble_fonts() to be added to user-preamble
+
+    rfontscale = re.compile(r'^\s*(\\font_(roman|sans|typewriter|math))\s+')
+    rscales = re.compile(r'^\s*(\d+)\s+(\d+)')
+    i = 0
+    while i < len(document.header):
+        i = find_re(document.header, rfontscale, i)
+        if (i == -1):
+            break
+        mo = rfontscale.search(document.header[i])
+        if mo == None:
+            i += 1
+            continue
+        ft = mo.group(1)    # 'roman', 'sans', 'typewriter', 'math'
+        val = get_value(document.header, ft, i)
+        words = val.split()
+        font = words[0].replace('"', '')
+        if not font in fm.font2pkgmap:
+            i += 1
+            continue
+        fontinfo = fm.font2pkgmap[font]
+        val = fontinfo.package
+        if not val in fontmap:
+            fontmap[val] = []
+        document.header[i] = ft + ' "default" ' + words[1]
+        if fontinfo.scaleopt != None:
+            xval =  get_value(document.header, "\\font_" + fontinfo.scaletype + "_scale", 0)
+            mo = rscales.search(xval)
+            if mo != None:
+                xval1 = mo.group(1)
+                xval2 = mo.group(2)
+                if xval1 != "100":
+                    # set correct scale option
+                    fontmap[val].extend([fontinfo.scaleopt + "=" + format(float(xval1) / 100, '.2f')])
+        if len(fontinfo.options) > 0:
+            fontmap[val].extend(fontinfo.options)
+        i += 1
 
 ###############################################################################
 ###
@@ -49,7 +267,88 @@ from lyx2lyx_tools import (put_cmd_in_ert, add_to_preamble)
 ###
 ###############################################################################
 
-  
+def convert_latexFonts(document):
+    " Handle DejaVu and IBMPlex fonts definition to LaTeX "
+
+    if find_token(document.header, "\\use_non_tex_fonts false", 0) != -1:
+        fm = createFontMapping()
+        convert_fonts(document, fm)
+
+def revert_latexFonts(document):
+    " Revert native DejaVu font definition to LaTeX "
+
+    if find_token(document.header, "\\use_non_tex_fonts false", 0) != -1:
+        fontmap = dict()
+        fm = createFontMapping()
+        revert_fonts(document, fm, fontmap)
+        add_preamble_fonts(document, fontmap)
+
+def removeFrontMatterStyles(document):
+    " Remove styles Begin/EndFrontmatter"
+
+    layouts = ['BeginFrontmatter', 'EndFrontmatter']
+    for layout in layouts:
+        i = 0
+        while True:
+            i = find_token(document.body, '\\begin_layout ' + layout, i)
+            if i == -1:
+                break
+            j = find_end_of_layout(document.body, i)
+            if j == -1:
+                document.warning("Malformed LyX document: Can't find end of layout at line %d" % i)
+                i += 1
+                continue
+            while i > 0 and document.body[i-1].strip() == '':
+                i -= 1
+            while document.body[j+1].strip() == '':
+                j = j + 1
+            document.body[i:j+1] = ['']
+
+def addFrontMatterStyles(document):
+    " Use styles Begin/EndFrontmatter for elsarticle"
+
+    def insertFrontmatter(prefix, line):
+        above = line
+        while above > 0 and document.body[above-1].strip() == '':
+            above -= 1
+        below = line
+        while document.body[below].strip() == '':
+            below += 1
+        document.body[above:below] = ['', '\\begin_layout ' + prefix + 'Frontmatter',
+                                    '\\begin_inset Note Note',
+                                    'status open', '',
+                                    '\\begin_layout Plain Layout',
+                                    'Keep this empty!',
+                                    '\\end_layout', '',
+                                    '\\end_inset', '', '',
+                                    '\\end_layout', '']
+
+    if document.textclass == "elsarticle":
+        layouts = ['Title', 'Title footnote', 'Author', 'Author footnote',
+                   'Corresponding author', 'Address', 'Email', 'Abstract', 'Keywords']
+        first = -1
+        last = -1
+        for layout in layouts:
+            i = 0
+            while True:
+                i = find_token(document.body, '\\begin_layout ' + layout, i)
+                if i == -1:
+                    break
+                k = find_end_of_layout(document.body, i)
+                if k == -1:
+                    document.warning("Malformed LyX document: Can't find end of layout at line %d" % i)
+                    i += 1;
+                    continue
+                if first == -1 or i < first:
+                    first = i
+                if last == -1 or last <= k:
+                    last = k+1
+                i = k+1
+        if first == -1:
+            return
+        insertFrontmatter('End', last)
+        insertFrontmatter('Begin', first)
+
 def convert_lst_literalparam(document):
     " Add param literal to include inset "
 
@@ -113,20 +412,20 @@ def revert_paratype(document):
         if i1 != -1 and i2 != -1 and i3!= -1:
             add_to_preamble(document, ["\\usepackage{paratype}"])
         else:
-            if i1!= -1: 
+            if i1!= -1:
                 add_to_preamble(document, ["\\usepackage{PTSerif}"])
                 document.header[i1] = document.header[i1].replace("PTSerif-TLF", "default")
-            if j!= -1: 
+            if j!= -1:
                 if sfoption != "":
                     add_to_preamble(document, ["\\usepackage[" + sfoption + "]{PTSans}"])
                 else:
                     add_to_preamble(document, ["\\usepackage{PTSans}"])
                 document.header[j] = document.header[j].replace("PTSans-TLF", "default")
-            if k!= -1: 
+            if k!= -1:
                 if ttoption != "":
                     add_to_preamble(document, ["\\usepackage[" + ttoption + "]{PTMono}"])
                 else:
-                    add_to_preamble(document, ["\\usepackage{PTMono}"])    
+                    add_to_preamble(document, ["\\usepackage{PTMono}"])
                 document.header[k] = document.header[k].replace("PTMono-TLF", "default")
 
 
@@ -537,6 +836,531 @@ def revert_bibencoding(document):
         i = j + 1
 
 
+
+def convert_vcsinfo(document):
+    " Separate vcs Info inset from buffer Info inset. "
+
+    types = {
+        "vcs-revision" : "revision",
+        "vcs-tree-revision" : "tree-revision",
+        "vcs-author" : "author",
+        "vcs-time" : "time",
+        "vcs-date" : "date"
+    }
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv != "buffer":
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        if argv not in list(types.keys()):
+            i = i + 1
+            continue
+        document.body[tp] = "type \"vcs\""
+        document.body[arg] = "arg \"" + types[argv] + "\""
+        i = i + 1
+
+
+def revert_vcsinfo(document):
+    " Merge vcs Info inset to buffer Info inset. "
+
+    args = ["revision", "tree-revision", "author", "time", "date" ]
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv != "vcs":
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        if argv not in args:
+            document.warning("Malformed Info inset. Invalid vcs arg.")
+            i = i + 1
+            continue
+        document.body[tp] = "type \"buffer\""
+        document.body[arg] = "arg \"vcs-" + argv + "\""
+        i = i + 1
+
+
+def revert_dateinfo(document):
+    " Revert date info insets to static text. "
+
+# FIXME This currently only considers the main language and uses the system locale
+# Ideally, it should honor context languages and switch the locale accordingly.
+
+    # The date formats for each language using strftime syntax:
+    # long, short, loclong, locmedium, locshort
+    dateformats = {
+        "afrikaans" : ["%A, %d %B %Y", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%Y/%m/%d"],
+        "albanian" : ["%A, %d %B %Y", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "american" : ["%A, %B %d, %Y", "%m/%d/%y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "amharic" : ["%A ፣%d %B %Y", "%d/%m/%Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "ancientgreek" : ["%A, %d %B %Y", "%d %b %Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "arabic_arabi" : ["%A، %d %B، %Y", "%d‏/%m‏/%Y", "%d %B، %Y", "%d/%m/%Y", "%d/%m/%Y"],
+        "arabic_arabtex" : ["%A، %d %B، %Y", "%d‏/%m‏/%Y", "%d %B، %Y", "%d/%m/%Y", "%d/%m/%Y"],
+        "armenian" : ["%Y թ. %B %d, %A", "%d.%m.%y", "%d %B، %Y", "%d %b، %Y", "%d/%m/%Y"],
+        "asturian" : ["%A, %d %B de %Y", "%d/%m/%y", "%d de %B de %Y", "%d %b %Y", "%d/%m/%Y"],
+        "australian" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "austrian" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "bahasa" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "bahasam" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "basque" : ["%Y(e)ko %B %d, %A", "%y/%m/%d", "%Y %B %d", "%Y %b %d", "%Y/%m/%d"],
+        "belarusian" : ["%A, %d %B %Y г.", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "bosnian" : ["%A, %d. %B %Y.", "%d.%m.%y.", "%d. %B %Y", "%d. %b %Y", "%Y-%m-%d"],
+        "brazilian" : ["%A, %d de %B de %Y", "%d/%m/%Y", "%d de %B de %Y", "%d de %b de %Y", "%d/%m/%Y"],
+        "breton" : ["%Y %B %d, %A", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%Y-%m-%d"],
+        "british" : ["%A, %d %B %Y", "%d/%m/%Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "bulgarian" : ["%A, %d %B %Y г.", "%d.%m.%y г.", "%d %B %Y", "%d %b %Y", "%Y-%m-%d"],
+        "canadian" : ["%A, %B %d, %Y", "%Y-%m-%d", "%B %d, %Y", "%d %b %Y", "%Y-%m-%d"],
+        "canadien" : ["%A %d %B %Y", "%y-%m-%d", "%d %B %Y", "%d %b %Y", "%Y-%m-%d"],
+        "catalan" : ["%A, %d %B de %Y", "%d/%m/%y", "%d / %B / %Y", "%d / %b / %Y", "%d/%m/%Y"],
+        "chinese-simplified" : ["%Y年%m月%d日%A", "%Y/%m/%d", "%Y年%m月%d日", "%Y-%m-%d", "%y-%m-%d"],
+        "chinese-traditional" : ["%Y年%m月%d日 %A", "%Y/%m/%d", "%Y年%m月%d日", "%Y年%m月%d日", "%y年%m月%d日"],
+        "coptic" : ["%A, %d %B %Y", "%d %b %Y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "croatian" : ["%A, %d. %B %Y.", "%d. %m. %Y.", "%d. %B %Y.", "%d. %b. %Y.", "%d.%m.%Y."],
+        "czech" : ["%A %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b. %Y", "%d.%m.%Y"],
+        "danish" : ["%A den %d. %B %Y", "%d/%m/%Y", "%d. %B %Y", "%d. %b %Y", "%d/%m/%Y"],
+        "divehi" : ["%Y %B %d, %A", "%Y-%m-%d", "%Y %B %d", "%Y %b %d", "%d/%m/%Y"],
+        "dutch" : ["%A %d %B %Y", "%d-%m-%y", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "english" : ["%A, %B %d, %Y", "%m/%d/%y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "esperanto" : ["%A, %d %B %Y", "%d %b %Y", "la %d de %B %Y", "la %d de %b %Y", "%m/%d/%Y"],
+        "estonian" : ["%A, %d. %B %Y", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "farsi" : ["%A %d %B %Y", "%Y/%m/%d", "%d %B %Y", "%d %b %Y", "%Y/%m/%d"],
+        "finnish" : ["%A %d. %B %Y", "%d.%m.%Y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "french" : ["%A %d %B %Y", "%d/%m/%Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "friulan" : ["%A %d di %B dal %Y", "%d/%m/%y", "%d di %B dal %Y", "%d di %b dal %Y", "%d/%m/%Y"],
+        "galician" : ["%A, %d de %B de %Y", "%d/%m/%y", "%d de %B de %Y", "%d de %b de %Y", "%d/%m/%Y"],
+        "georgian" : ["%A, %d %B, %Y", "%d.%m.%y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "german" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "german-ch" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "german-ch-old" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "greek" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "hebrew" : ["%A, %d ב%B %Y", "%d.%m.%Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "hindi" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "icelandic" : ["%A, %d. %B %Y", "%d.%m.%Y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "interlingua" : ["%Y %B %d, %A", "%Y-%m-%d", "le %d de %B %Y", "le %d de %b %Y", "%Y-%m-%d"],
+        "irish" : ["%A %d %B %Y", "%d/%m/%Y", "%d. %B %Y", "%d. %b %Y", "%d/%m/%Y"],
+        "italian" : ["%A %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d/%b/%Y", "%d/%m/%Y"],
+        "japanese" : ["%Y年%m月%d日%A", "%Y/%m/%d", "%Y年%m月%d日", "%Y/%m/%d", "%y/%m/%d"],
+        "japanese-cjk" : ["%Y年%m月%d日%A", "%Y/%m/%d", "%Y年%m月%d日", "%Y/%m/%d", "%y/%m/%d"],
+        "kannada" : ["%A, %B %d, %Y", "%d/%m/%y", "%d %B %Y", "%d %B %Y", "%d-%m-%Y"],
+        "kazakh" : ["%Y ж. %d %B, %A", "%d.%m.%y", "%d %B %Y", "%d %B %Y", "%Y-%d-%m"],
+        "khmer" : ["%A %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %B %Y", "%d/%m/%Y"],
+        "korean" : ["%Y년 %m월 %d일 %A", "%y. %m. %d.", "%Y년 %m월 %d일", "%Y. %m. %d.", "%y. %m. %d."],
+        "kurmanji" : ["%A, %d %B %Y", "%d %b %Y", "%d. %B %Y", "%d. %m. %Y", "%Y-%m-%d"],
+        "lao" : ["%A ທີ %d %B %Y", "%d/%m/%Y", "%d %B %Y", "%d %B %Y", "%d/%m/%Y"],
+        "latin" : ["%A, %d %B %Y", "%d %b %Y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "latvian" : ["%A, %Y. gada %d. %B", "%d.%m.%y", "%Y. gada %d. %B", "%Y. gada %d. %b", "%d.%m.%Y"],
+        "lithuanian" : ["%Y m. %B %d d., %A", "%Y-%m-%d", "%Y m. %B %d d.", "%Y m. %B %d d.", "%Y-%m-%d"],
+        "lowersorbian" : ["%A, %d. %B %Y", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "macedonian" : ["%A, %d %B %Y", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "magyar" : ["%Y. %B %d., %A", "%Y. %m. %d.", "%Y. %B %d.", "%Y. %b %d.", "%Y.%m.%d."],
+        "marathi" : ["%A, %d %B, %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "mongolian" : ["%A, %Y оны %m сарын %d", "%Y-%m-%d", "%Y оны %m сарын %d", "%d-%m-%Y", "%d-%m-%Y"],
+        "naustrian" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "newzealand" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "ngerman" : ["%A, %d. %B %Y", "%d.%m.%y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "norsk" : ["%A %d. %B %Y", "%d.%m.%Y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "nynorsk" : ["%A %d. %B %Y", "%d.%m.%Y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "occitan" : ["%Y %B %d, %A", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "piedmontese" : ["%A, %d %B %Y", "%d %b %Y", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "polish" : ["%A, %d %B %Y", "%d.%m.%Y", "%d %B %Y", "%d %b %Y", "%Y-%m-%d"],
+        "polutonikogreek" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "portuguese" : ["%A, %d de %B de %Y", "%d/%m/%y", "%d de %B de %Y", "%d de %b de %Y", "%Y/%m/%d"],
+        "romanian" : ["%A, %d %B %Y", "%d.%m.%Y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "romansh" : ["%A, ils %d da %B %Y", "%d-%m-%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "russian" : ["%A, %d %B %Y г.", "%d.%m.%Y", "%d %B %Y г.", "%d %b %Y г.", "%d.%m.%Y"],
+        "samin" : ["%Y %B %d, %A", "%Y-%m-%d", "%B %d. b. %Y", "%b %d. b. %Y", "%d.%m.%Y"],
+        "sanskrit" : ["%Y %B %d, %A", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "scottish" : ["%A, %dmh %B %Y", "%d/%m/%Y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "serbian" : ["%A, %d. %B %Y.", "%d.%m.%y.", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "serbian-latin" : ["%A, %d. %B %Y.", "%d.%m.%y.", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "slovak" : ["%A, %d. %B %Y", "%d. %m. %Y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "slovene" : ["%A, %d. %B %Y", "%d. %m. %y", "%d. %B %Y", "%d. %b %Y", "%d.%m.%Y"],
+        "spanish" : ["%A, %d de %B de %Y", "%d/%m/%y", "%d de %B %de %Y", "%d %b %Y", "%d/%m/%Y"],
+        "spanish-mexico" : ["%A, %d de %B %de %Y", "%d/%m/%y", "%d de %B de %Y", "%d %b %Y", "%d/%m/%Y"],
+        "swedish" : ["%A %d %B %Y", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%Y-%m-%d"],
+        "syriac" : ["%Y %B %d, %A", "%Y-%m-%d", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "tamil" : ["%A, %d %B, %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "telugu" : ["%d, %B %Y, %A", "%d-%m-%y", "%d %B %Y", "%d %b %Y", "%d-%m-%Y"],
+        "thai" : ["%Aที่ %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+        "tibetan" : ["%Y %Bའི་ཚེས་%d, %A", "%Y-%m-%d", "%B %d, %Y", "%b %d, %Y", "%m/%d/%Y"],
+        "turkish" : ["%d %B %Y %A", "%d.%m.%Y", "%d %B %Y", "%d.%b.%Y", "%d.%m.%Y"],
+        "turkmen" : ["%d %B %Y %A", "%d.%m.%Y", "%Y ý. %B %d", "%d.%m.%Y ý.", "%d.%m.%y ý."],
+        "ukrainian" : ["%A, %d %B %Y р.", "%d.%m.%y", "%d %B %Y", "%d %m %Y", "%d.%m.%Y"],
+        "uppersorbian" : ["%A, %d. %B %Y", "%d.%m.%y", "%d %B %Y", "%d %b %Y", "%d.%m.%Y"],
+        "urdu" : ["%A، %d %B، %Y", "%d/%m/%y", "%d %B, %Y", "%d %b %Y", "%d/%m/%Y"],
+        "vietnamese" : ["%A, %d %B, %Y", "%d/%m/%Y", "%d tháng %B %Y", "%d-%m-%Y", "%d/%m/%Y"],
+        "welsh" : ["%A, %d %B %Y", "%d/%m/%y", "%d %B %Y", "%d %b %Y", "%d/%m/%Y"],
+    }
+
+    types = ["date", "fixdate", "moddate" ]
+    i = 0
+    i = find_token(document.header, "\\language", 0)
+    if i == -1:
+        # this should not happen
+        document.warning("Malformed LyX document! No \\language header found!")
+        return
+    lang = get_value(document.header, "\\language", i)
+
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv not in types:
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        isodate = ""
+        dte = date.today()
+        if tpv == "fixdate":
+            datecomps = argv.split('@')
+            if len(datecomps) > 1:
+                argv = datecomps[0]
+                isodate = datecomps[1]
+                m = re.search('(\d\d\d\d)-(\d\d)-(\d\d)', isodate)
+                if m:
+                    dte = date(int(m.group(1)), int(m.group(2)), int(m.group(3)))
+# FIXME if we had the path to the original document (not the one in the tmp dir),
+#        we could use the mtime.
+#        elif tpv == "moddate":
+#            dte = date.fromtimestamp(os.path.getmtime(document.dir))
+        result = ""
+        if argv == "ISO":
+            result = dte.isodate()
+        elif argv == "long":
+            result = dte.strftime(dateformats[lang][0])
+        elif argv == "short":
+            result = dte.strftime(dateformats[lang][1])
+        elif argv == "loclong":
+            result = dte.strftime(dateformats[lang][2])
+        elif argv == "locmedium":
+            result = dte.strftime(dateformats[lang][3])
+        elif argv == "locshort":
+            result = dte.strftime(dateformats[lang][4])
+        else:
+            fmt = argv.replace("MMMM", "%b").replace("MMM", "%b").replace("MM", "%m").replace("M", "%m")
+            fmt = fmt.replace("yyyy", "%Y").replace("yy", "%y")
+            fmt = fmt.replace("dddd", "%A").replace("ddd", "%a").replace("dd", "%d")
+            fmt = re.sub('[^\'%]d', '%d', fmt)
+            fmt = fmt.replace("'", "")
+            result = dte.strftime(fmt)
+        document.body[i : j+1] = result
+        i = i + 1
+
+
+def revert_timeinfo(document):
+    " Revert time info insets to static text. "
+
+# FIXME This currently only considers the main language and uses the system locale
+# Ideally, it should honor context languages and switch the locale accordingly.
+# Also, the time object is "naive", i.e., it does not know of timezones (%Z will
+# be empty).
+
+    # The time formats for each language using strftime syntax:
+    # long, short
+    timeformats = {
+        "afrikaans" : ["%H:%M:%S %Z", "%H:%M"],
+        "albanian" : ["%I:%M:%S %p, %Z", "%I:%M %p"],
+        "american" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "amharic" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "ancientgreek" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "arabic_arabi" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "arabic_arabtex" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "armenian" : ["%H:%M:%S %Z", "%H:%M"],
+        "asturian" : ["%H:%M:%S %Z", "%H:%M"],
+        "australian" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "austrian" : ["%H:%M:%S %Z", "%H:%M"],
+        "bahasa" : ["%H.%M.%S %Z", "%H.%M"],
+        "bahasam" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "basque" : ["%H:%M:%S (%Z)", "%H:%M"],
+        "belarusian" : ["%H:%M:%S, %Z", "%H:%M"],
+        "bosnian" : ["%H:%M:%S %Z", "%H:%M"],
+        "brazilian" : ["%H:%M:%S %Z", "%H:%M"],
+        "breton" : ["%H:%M:%S %Z", "%H:%M"],
+        "british" : ["%H:%M:%S %Z", "%H:%M"],
+        "bulgarian" : ["%H:%M:%S %Z", "%H:%M"],
+        "canadian" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "canadien" : ["%H:%M:%S %Z", "%H h %M"],
+        "catalan" : ["%H:%M:%S %Z", "%H:%M"],
+        "chinese-simplified" : ["%Z %p%I:%M:%S", "%p%I:%M"],
+        "chinese-traditional" : ["%p%I:%M:%S [%Z]", "%p%I:%M"],
+        "coptic" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "croatian" : ["%H:%M:%S (%Z)", "%H:%M"],
+        "czech" : ["%H:%M:%S %Z", "%H:%M"],
+        "danish" : ["%H.%M.%S %Z", "%H.%M"],
+        "divehi" : ["%H:%M:%S %Z", "%H:%M"],
+        "dutch" : ["%H:%M:%S %Z", "%H:%M"],
+        "english" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "esperanto" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "estonian" : ["%H:%M:%S %Z", "%H:%M"],
+        "farsi" : ["%H:%M:%S (%Z)", "%H:%M"],
+        "finnish" : ["%H.%M.%S %Z", "%H.%M"],
+        "french" : ["%H:%M:%S %Z", "%H:%M"],
+        "friulan" : ["%H:%M:%S %Z", "%H:%M"],
+        "galician" : ["%H:%M:%S %Z", "%H:%M"],
+        "georgian" : ["%H:%M:%S %Z", "%H:%M"],
+        "german" : ["%H:%M:%S %Z", "%H:%M"],
+        "german-ch" : ["%H:%M:%S %Z", "%H:%M"],
+        "german-ch-old" : ["%H:%M:%S %Z", "%H:%M"],
+        "greek" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "hebrew" : ["%H:%M:%S %Z", "%H:%M"],
+        "hindi" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "icelandic" : ["%H:%M:%S %Z", "%H:%M"],
+        "interlingua" : ["%H:%M:%S %Z", "%H:%M"],
+        "irish" : ["%H:%M:%S %Z", "%H:%M"],
+        "italian" : ["%H:%M:%S %Z", "%H:%M"],
+        "japanese" : ["%H時%M分%S秒 %Z", "%H:%M"],
+        "japanese-cjk" : ["%H時%M分%S秒 %Z", "%H:%M"],
+        "kannada" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "kazakh" : ["%H:%M:%S %Z", "%H:%M"],
+        "khmer" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "korean" : ["%p %I시%M분 %S초 %Z", "%p %I:%M"],
+        "kurmanji" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "lao" : ["%H ໂມງ%M ນາທີ  %S ວິນາທີ %Z", "%H:%M"],
+        "latin" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "latvian" : ["%H:%M:%S %Z", "%H:%M"],
+        "lithuanian" : ["%H:%M:%S %Z", "%H:%M"],
+        "lowersorbian" : ["%H:%M:%S %Z", "%H:%M"],
+        "macedonian" : ["%H:%M:%S %Z", "%H:%M"],
+        "magyar" : ["%H:%M:%S %Z", "%H:%M"],
+        "marathi" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "mongolian" : ["%H:%M:%S %Z", "%H:%M"],
+        "naustrian" : ["%H:%M:%S %Z", "%H:%M"],
+        "newzealand" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "ngerman" : ["%H:%M:%S %Z", "%H:%M"],
+        "norsk" : ["%H:%M:%S %Z", "%H:%M"],
+        "nynorsk" : ["kl. %H:%M:%S %Z", "%H:%M"],
+        "occitan" : ["%H:%M:%S %Z", "%H:%M"],
+        "piedmontese" : ["%H:%M:%S %Z", "%H:%M:%S"],
+        "polish" : ["%H:%M:%S %Z", "%H:%M"],
+        "polutonikogreek" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "portuguese" : ["%H:%M:%S %Z", "%H:%M"],
+        "romanian" : ["%H:%M:%S %Z", "%H:%M"],
+        "romansh" : ["%H:%M:%S %Z", "%H:%M"],
+        "russian" : ["%H:%M:%S %Z", "%H:%M"],
+        "samin" : ["%H:%M:%S %Z", "%H:%M"],
+        "sanskrit" : ["%H:%M:%S %Z", "%H:%M"],
+        "scottish" : ["%H:%M:%S %Z", "%H:%M"],
+        "serbian" : ["%H:%M:%S %Z", "%H:%M"],
+        "serbian-latin" : ["%H:%M:%S %Z", "%H:%M"],
+        "slovak" : ["%H:%M:%S %Z", "%H:%M"],
+        "slovene" : ["%H:%M:%S %Z", "%H:%M"],
+        "spanish" : ["%H:%M:%S (%Z)", "%H:%M"],
+        "spanish-mexico" : ["%H:%M:%S %Z", "%H:%M"],
+        "swedish" : ["kl. %H:%M:%S %Z", "%H:%M"],
+        "syriac" : ["%H:%M:%S %Z", "%H:%M"],
+        "tamil" : ["%p %I:%M:%S %Z", "%p %I:%M"],
+        "telugu" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "thai" : ["%H นาฬิกา %M นาที  %S วินาที %Z", "%H:%M"],
+        "tibetan" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "turkish" : ["%H:%M:%S %Z", "%H:%M"],
+        "turkmen" : ["%H:%M:%S %Z", "%H:%M"],
+        "ukrainian" : ["%H:%M:%S %Z", "%H:%M"],
+        "uppersorbian" : ["%H:%M:%S %Z", "%H:%M hodź."],
+        "urdu" : ["%I:%M:%S %p %Z", "%I:%M %p"],
+        "vietnamese" : ["%H:%M:%S %Z", "%H:%M"],
+        "welsh" : ["%H:%M:%S %Z", "%H:%M"]
+    }
+
+    types = ["time", "fixtime", "modtime" ]
+    i = 0
+    i = find_token(document.header, "\\language", 0)
+    if i == -1:
+        # this should not happen
+        document.warning("Malformed LyX document! No \\language header found!")
+        return
+    lang = get_value(document.header, "\\language", i)
+
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv not in types:
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        isotime = ""
+        dtme = datetime.now()
+        tme = dtme.time()
+        if tpv == "fixtime":
+            timecomps = argv.split('@')
+            if len(timecomps) > 1:
+                argv = timecomps[0]
+                isotime = timecomps[1]
+                m = re.search('(\d\d):(\d\d):(\d\d)', isotime)
+                if m:
+                    tme = time(int(m.group(1)), int(m.group(2)), int(m.group(3)))
+                else:
+                    m = re.search('(\d\d):(\d\d)', isotime)
+                    if m:
+                        tme = time(int(m.group(1)), int(m.group(2)))
+# FIXME if we had the path to the original document (not the one in the tmp dir),
+#        we could use the mtime.
+#        elif tpv == "moddate":
+#            dte = date.fromtimestamp(os.path.getmtime(document.dir))
+        result = ""
+        if argv == "ISO":
+            result = tme.isoformat()
+        elif argv == "long":
+            result = tme.strftime(timeformats[lang][0])
+        elif argv == "short":
+            result = tme.strftime(timeformats[lang][1])
+        else:
+            fmt = argv.replace("HH", "%H").replace("H", "%H").replace("hh", "%I").replace("h", "%I")
+            fmt = fmt.replace("mm", "%M").replace("m", "%M").replace("ss", "%S").replace("s", "%S")
+            fmt = fmt.replace("zzz", "%f").replace("z", "%f").replace("t", "%Z")
+            fmt = fmt.replace("AP", "%p").replace("ap", "%p").replace("A", "%p").replace("a", "%p")
+            fmt = fmt.replace("'", "")
+            result = dte.strftime(fmt)
+        document.body[i : j+1] = result
+        i = i + 1
+
+
+def revert_namenoextinfo(document):
+    " Merge buffer Info inset type name-noext to name. "
+
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv != "buffer":
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        if argv != "name-noext":
+            i = i + 1
+            continue
+        document.body[arg] = "arg \"name\""
+        i = i + 1
+
+
+def revert_l7ninfo(document):
+    " Revert l7n Info inset to text. "
+
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv != "l7n":
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        # remove trailing colons, menu accelerator (|...) and qt accelerator (&), while keeping literal " & " 
+        argv = argv.rstrip(':').split('|')[0].replace(" & ", "</amp;>").replace("&", "").replace("</amp;>", " & ")
+        document.body[i : j+1] = argv
+        i = i + 1
+
+
+def revert_listpargs(document):
+    " Reverts listpreamble arguments to TeX-code "
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Argument listpreamble:", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i)
+        # Find containing paragraph layout
+        parent = get_containing_layout(document.body, i)
+        if parent == False:
+            document.warning("Malformed LyX document: Can't find parent paragraph layout")
+            i += 1
+            continue
+        parbeg = parent[3]
+        beginPlain = find_token(document.body, "\\begin_layout Plain Layout", i)
+        endPlain = find_end_of_layout(document.body, beginPlain)
+        content = document.body[beginPlain + 1 : endPlain]
+        del document.body[i:j+1]
+        subst = ["\\begin_inset ERT", "status collapsed", "", "\\begin_layout Plain Layout",
+                 "{"] + content + ["}", "\\end_layout", "", "\\end_inset", ""]
+        document.body[parbeg : parbeg] = subst
+        i += 1
+
+
+def revert_lformatinfo(document):
+    " Revert layout format Info inset to text. "
+
+    i = 0
+    while True:
+        i = find_token(document.body, "\\begin_inset Info", i)
+        if i == -1:
+            return
+        j = find_end_of_inset(document.body, i + 1)
+        if j == -1:
+            document.warning("Malformed LyX document: Could not find end of Info inset.")
+            i = i + 1
+            continue
+        tp = find_token(document.body, 'type', i, j)
+        tpv = get_quoted_value(document.body, "type", tp)
+        if tpv != "lyxinfo":
+            i = i + 1
+            continue
+        arg = find_token(document.body, 'arg', i, j)
+        argv = get_quoted_value(document.body, "arg", arg)
+        if argv != "layoutformat":
+            i = i + 1
+            continue
+        # hardcoded for now
+        document.body[i : j+1] = "69"
+        i = i + 1
+
+
 ##
 # Conversion hub
 #
@@ -554,10 +1378,26 @@ convert = [
            [553, []],
            [554, []],
            [555, []],
-           [556, []]
+           [556, []],
+           [557, [convert_vcsinfo]],
+           [558, [removeFrontMatterStyles]],
+           [559, []],
+           [560, []],
+           [561, [convert_latexFonts]], # Handle dejavu, ibmplex fonts in GUI
+           [562, []],
+           [563, []],
+           [564, []]
           ]
 
 revert =  [
+           [563, [revert_lformatinfo]],
+           [562, [revert_listpargs]],
+           [561, [revert_l7ninfo]],
+           [560, [revert_latexFonts]], # Handle dejavu, ibmplex fonts in user preamble
+           [559, [revert_timeinfo, revert_namenoextinfo]],
+           [558, [revert_dateinfo]],
+           [557, [addFrontMatterStyles]],
+           [556, [revert_vcsinfo]],
            [555, [revert_bibencoding]],
            [554, [revert_vcolumns]],
            [553, [revert_stretchcolumn]],