Sonoisa
Rank:Average Model Cost: $0.0000
Number of Runs: 351,807
Models by this creator
t5-base-japanese-title-generation
t5-base-japanese-title-generation
The t5-base-japanese-title-generation model is a language generation model that has been trained on Japanese text. It is based on the T5 architecture, which stands for "Text-to-Text Transfer Transformer." The model is capable of generating titles or headings in Japanese based on input text. It can be used for a variety of applications such as generating headlines for news articles, titles for blog posts, or headings for documents.
$-/run
285.5K
Huggingface
sentence-bert-base-ja-mean-tokens-v2
sentence-bert-base-ja-mean-tokens-v2
The sentence-bert-base-ja-mean-tokens-v2 model is a Japanese sentence-BERT model that has been trained using the MultipleNegativesRankingLoss, which has resulted in improved accuracy compared to the version 1 model. It uses the cl-tohoku/bert-base-japanese-whole-word-masking pre-trained model and requires fugashi and ipadic for inference execution.
$-/run
33.0K
Huggingface
sentence-bert-base-ja-mean-tokens
sentence-bert-base-ja-mean-tokens
The sentence-bert-base-ja-mean-tokens model is a Japanese language model trained on a large corpus of text. It is based on the Sentence BERT architecture and uses mean pooling over the tokens to generate fixed-sized sentence embeddings. This model can be used for tasks such as sentence similarity and clustering in Japanese.
$-/run
17.6K
Huggingface
t5-base-japanese
t5-base-japanese
T5-base-japanese is a text-to-text transformer model trained on a large-scale dataset in Japanese. It can perform a variety of text generation tasks such as translation, summarization, sentiment analysis, and question answering. The model achieves state-of-the-art results on several benchmarks and can be fine-tuned for specific downstream tasks as well.
$-/run
10.2K
Huggingface
sentence-luke-japanese-base-lite
sentence-luke-japanese-base-lite
Platform did not provide a description for this model.
$-/run
3.8K
Huggingface
t5-base-japanese-v1.1
$-/run
619
Huggingface
sentence-t5-base-ja-mean-tokens
sentence-t5-base-ja-mean-tokens
This is a Japanese sentence-T5 model. 日本語用Sentence-T5モデルです。 事前学習済みモデルとしてsonoisa/t5-base-japaneseを利用しました。推論の実行にはsentencepieceが必要です(pip install sentencepiece)。 手元の非公開データセットでは、精度はsonoisa/sentence-bert-base-ja-mean-tokensと同程度です。 使い方
$-/run
335
Huggingface
clip-vit-b-32-japanese-v1
$-/run
311
Huggingface
t5-base-japanese-question-generation
t5-base-japanese-question-generation
Platform did not provide a description for this model.
$-/run
208
Huggingface
t5-base-english-japanese
t5-base-english-japanese
英語+日本語T5事前学習済みモデル This is a T5 (Text-to-Text Transfer Transformer) model pretrained on English and Japanese balanced corpus. 次の日本語コーパス(約500GB)を用いて事前学習を行ったT5 (Text-to-Text Transfer Transformer) モデルです。 Wikipediaの英語ダンプデータ (2022年6月27日時点のもの) Wikipediaの日本語ダンプデータ (2022年6月27日時点のもの) OSCARの日本語コーパス CC-100の英語コーパス CC-100の日本語コーパス このモデルは事前学習のみを行なったものであり、特定のタスクに利用するにはファインチューニングする必要があります。本モデルにも、大規模コーパスを用いた言語モデルにつきまとう、学習データの内容の偏りに由来する偏った(倫理的ではなかったり、有害だったり、バイアスがあったりする)出力結果になる問題が潜在的にあります。 この問題が発生しうることを想定した上で、被害が発生しない用途にのみ利用するよう気をつけてください。 SentencePieceトークナイザーの学習には、上記WikipediaとCC-100を約10:1の比率で混ぜ、英語と日本語の文字数がほぼ同数になるように調整(文はランダムに抽出)したデータから2650万文選んだデータを用いました。byte-fallbackあり設定で学習しており、実質未知語が発生しません。 転移学習のサンプルコード https://github.com/sonoisa/t5-japanese ベンチマーク 準備中 免責事項 本モデルの作者は本モデルを作成するにあたって、その内容、機能等について細心の注意を払っておりますが、モデルの出力が正確であるかどうか、安全なものであるか等について保証をするものではなく、何らの責任を負うものではありません。本モデルの利用により、万一、利用者に何らかの不都合や損害が発生したとしても、モデルやデータセットの作者や作者の所属組織は何らの責任を負うものではありません。利用者には本モデルやデータセットの作者や所属組織が責任を負わないことを明確にする義務があります。 ライセンス CC-BY SA 4.0 Common Crawlの利用規約も守るようご注意ください。
$-/run
195
Huggingface