top of page
植物と本
  • 執筆者の写真Shumpei Miyawaki

GPT Index #02


2. Document

  • GPT Index では Document [doc] と呼ばれるデータクラスを扱う

    • BaseDocument [code] という基底クラスを継承している

    • 属性値取得のメソッドに加え、Langchain と連携するためのデータ変換メソッドも定義されている

from dataclasses import dataclass
from typing import Any, Dict, List, Optional
from dataclasses_json import DataClassJsonMixin

@dataclass
class BaseDocument(DataClassJsonMixin):
    text: Optional[str] = None
    doc_id: Optional[str] = None
    embedding: Optional[List[float]] = None
    extra_info: Optional[Dict[str, Any]] = None

3. DataConnectors


GPT Index ではデータ読み込み機能を提供する Reader, Parser が定義されている


3.1. Wikipedia からのテキスト読み込み

  • WikipediaReader [code] では Python ライブラリ wikipedia を用いて 以下の読み込みを行う:

# 一部省略 & 改変
import wikipedia

class WikipediaReader(BaseReader):
    def load_data(self, pages:List[str], **kwargs) -> List[Document]:
        documents = []
        for page in pages:
            content = wikipedia.page(page, **kwargs).content
            documents.append(Document(content))
        return documents

3.2. WEB からのテキスト読み込み

  • SimpleWebPageReader [code] では html2text を用いて以下の読み込みを行う:

# 一部省略 & 改変
import requests
import html2text

class SimpleWebPageReader(BaseReader):
    def __init__(self, html_to_text:bool=False):
        self._html_to_text = html_to_text

    def load_data(self, urls:List[str]) -> List[Document]:
        documents = []
        for url in urls:
            response = requests.get(url).text
            if self._html_to_text:
                response = html2text.html2text(response)
            documents.append(Document(response))
        return documents

3.3. 文書画像からのテキスト読み込み

  • CORD で学習された Donut [paper][code] を用いて項目推定によるタグ付けを行う

  • BaseParser [code] では parse_file メソッドを用いて file-to-str の変換を行う

# 一部省略 & 改変

from pathlib import Path
from PIL import Image

from transformers import DonutProcessor, VisionEncoderDecoderModel

class ImageParser(BaseParser):
    def _init_parser(self):
        name = "naver-clova-ix/donut-base-finetuned-cord-v2"
        model = VisionEncoderDecoderModel.from_pretrained(name)
        processor = DonutProcessor.from_pretrained(name)
        return {
            "processor": processor,
            "model": model,
        }

    def parse_file(self, file:Path) -> str:
        image = Image.open(file).convert("RGB")
        task_prompt = "<s_cord-v2>"
        decoder_input_ids = processor.tokenizer(
            task_prompt,
            add_special_tokens=False,
            return_tensors="pt"
        ).input_ids

        pixel_values = processor(
            image,
            return_tensors="pt"
        ).pixel_values

        outputs = model.generate(
            pixel_values.to(device),
            decoder_input_ids=decoder_input_ids.to(device),
            # 中略
        )
        sequence = processor.batch_decode(outputs.sequences)[0]
        # 中略
        return sequence


3.4. スライドからのテキスト読み込み

# 一部省略 & 改変

from pathlib import Path

from pptx import Presentation
from transformers import (
    AutoTokenizer,
    VisionEncoderDecoderModel,
    ViTFeatureExtractor,
)

class PptxParser(BaseParser):
    def _init_parser(self):
        name = "nlpconnect/vit-gpt2-image-captioning"
        model = VisionEncoderDecoderModel.from_pretrained(name)
        feat_extractor = ViTFeatureExtractor.from_pretrained(name)
        tokenizer = AutoTokenizer.from_pretrained(name)
        return {
            "feature_extractor": feat_extractor,
            "model": model,
            "tokenizer": tokenizer
        }
    
    def caption_image(self, tmp_image_file:str) -> str:
        # 中略
        return caption

    def parse_file(self, file:Path, urls:List[str]) -> str:
        presentation = Presentation(file)
        result = ""
        for i, slide in enumerate(presentation.slides):
            result += f"\n\nSlide ${i}: \n"
            for shape in slide.shapes:
                image = shape.image
                image_file = f"tmp_image.{image.ext}"
                caption = self.caption_image(image_file)
                result += f"\n Image: {caption}\n\n"
        return result

3.5. その他のテキスト読み込み

閲覧数:13回0件のコメント

最新記事

すべて表示

月次まとめ - 2023.01

本ブログ立ち上げ以前のものも軽く追加 # ブログ GitHub / Huggingface https://github.com/tanreinama/GPTSAN https://github.com/dmvaldman/html_semantic_seg https://github.com/ndl-lab/ndlocr_cli https://github.com/helblazer811/

bottom of page