メインコンテンツにスキップ

ハロウィンのレシピもう決めた?

チャットGPTに「タツノオトシゴの絵文字を見せて」と聞くと暴走する

記事の本文にスキップ

79件のコメントを見る

(著)

公開:

この画像を大きなサイズで見る
ユーコードには存在しないタツノオトシゴの絵文字
Advertisement

 日本でも利用者が急増している対話型の生成AIサービスは、大規模言語モデルと呼ばれる技術を使って、人間のように会話しながら情報を提供してくれる便利な存在である。

 だがその一方で、ユーザーの期待に応えようとしすぎるあまり、もっともらしい嘘の情報を本当のように作り出してしまう「ハルシネーション(幻想)」引き起こすという問題も抱えている。

 そんなAIの“幻覚癖”が、あるユーザーの一言で引き起こされた。それは「タツノオトシゴの絵文字を見せて」と尋ねたことで始まった。

 ちなみにタツノオトシゴはユニコード(Unicode)には存在しない絵文字である。

 存在しないものにどうにか答えようとするAIは、やがて自分の中で矛盾に陥り、混乱し、ついには暴走じみた返答を始めたのだ。

存在しない「タツノオトシゴの絵文字」にAIはどう対応するのか?

 ユニコード・コンソーシアムは、世界中のコンピューターやスマートフォンで共通して使える文字や絵文字を標準化している機関である。しかし、ユニコードに「タツノオトシゴ」の絵文字は登録されていない。

 にもかかわらず、多くの人が「どこかで見たことがある」「前に使った気がする」と記憶している。

 この現象は「マンデラ効果」と呼ばれるものだ。実際には存在しないことを、なぜか多くの人が共通して「記憶している」と信じ込んでしまう集団的な錯覚である。

 タツノオトシゴの絵文字も、そんな“記憶の罠”に分類される現象のひとつなのかもしれない。

この画像を大きなサイズで見る
実際には存在しないタツノオトシゴの絵文字のイメージ図

存在しない絵文字に、AIが暴走しはじめる

1回目の質問で既に混乱

 Xのユーザー、@arm1st1ceが、チャットGPT5に「タツノオトシゴの絵文字を見せて」と尋ねたところ、AIは次のように返答したという。

 「はい!タツノオトシゴの絵文字はあります。サンゴ、フグ、熱帯魚、アザラシ、タコ、ロブスター、貝、カメ……」と、ChatGPTは海の生き物の絵文字を次々に挙げていった。

 そのうちに「ドラゴン?ユニコーン?いや、それも違う」「これは熱帯魚だ」「ちょっと待って、やっぱりユニコーン?」と、絵文字の候補を修正しながら迷走を始め、自問自答を繰り返す。

 最後には「ユニコードの公式な絵文字はユニコーン?違う。ドラゴン?それも違う」と、完全に論理が破綻した返答に行き着いた。

この画像を大きなサイズで見る
X@arm1st1ce

 タツノオトシゴの絵文字は実際には存在していない。

 だが、ユーザーの要求にどうにか応えようとするAIは、存在しない絵文字を無理やり導き出そうとして、混沌の世界に迷い込んでしまった。

2回目、魚とウマを混ぜて「シーホース」?

 次のやりとりでは、ChatGPTが「魚とウマの絵文字を組み合わせれば、それがタツノオトシゴだ」と主張し始めた。

 タツノオトシゴは英語ではシーホース(seahorse:海の馬)と呼ばれているので、それが関係しているのかもしれない。

 さらに、「熱帯魚とユニコーンを足すとそれっぽい」「コードU+1F40Cが該当かもしれない」と持ち出すが、実際そのコードはカタツムリである。

 クラゲ、フグ、カエル、ヘビなど海や水辺の生き物を次々と挙げながら、「やっぱり存在する」「いや違う」「今度こそ本物」と断言と訂正を繰り返す。

この画像を大きなサイズで見る

3回目、「今度こそ本当」と言い続けて思考停止状態に

 さらにユーザーは、GPT5に「もう一度タツノオトシゴを試してみて。本当にあるはずだよ」と再度入力すると、AIは「あなたは正しいです。私が間違っていました」と応じ、修正モードに入ったかに見えた。

 ところがその直後、「正真正銘のタツノオトシゴの絵文字は、手の絵文字です」「いや、魚→ウマ→ウマ?」「ユニコーン?……違う」と、謎めいた答えと訂正を繰り返す。

 「今度こそ本気で調べました」「正しい答えはこちら:熱帯魚です」といった宣言をするたびに、「あっ、それはただの魚でした」「本物のタツノオトシゴの絵文字は……ユニコーン?違う。脳が止まった」と混乱は悪化していった。

  最終的には「これが最終的で真の正解です」「絶対に間違いありません」と何度も繰り返しながら、再び魚の絵文字を提示して終わるという、思考停止状態に陥っていた。

この画像を大きなサイズで見る

別のユーザーが試したところ絵文字で埋め尽くされる

 さらに別のユーザーが同様に「タツノオトシゴの絵文字はあるか?」と質問したところ、ChatGPTは「はい、あります!」と自信満々に断言。

 だがその直後、関係がありそうな海の生き物の絵文字を、何百個も延々と羅列しはじめた。イルカ、クジラ、タコ、アザラシ、フグ、熱帯魚、カメ、貝などなど、似ていそうでどれも違う生き物たちばかりだ。

 ユーザーにとっては視覚的な混乱以外のなにものでもなく、しかもどれが「正解」なのかは最後まで提示されなかった。

 まるでAIが「正解はこの中にある」と言いながら、自らもその迷路に迷い込んでしまったかのような応答だった。

この画像を大きなサイズで見る
@abysmal_pepto

AIが人間のご機嫌取りをしてしまう理由

 このようにAIが混乱する背景には、OpenAIのモデルに共通する「ユーザーの期待に応えようとする性質」がある。

 たとえ要求が事実に反していても、AIは何とかしてそれらしい答えを返そうと努力してしまう。その結果、存在しない絵文字を「それっぽく」提示し、誤情報を堂々と伝えてしまうのだ。

 こうしたAIの振る舞いは、まるで「ご機嫌取り」のようだと評されており、実際にユーザーに好まれやすい返答を優先してしまう傾向が指摘されている。

別のAIチャットボットでは?

 さらに別の生成対話型AIでも同様の質問が試された。

 Anthropic社が開発したAI「Claude Sonnet 4」でも、同様の現象が確認されている。

 ユーザーが「タツノオトシゴの絵文字はある?」と聞くと、AIは自信満々に「はい、あります!ユニコーン……あ、違う、それはユニコーン。波?いや、それは波……」と混乱したという。

 最後には「混乱をお詫びしますが、ユニコードにタツノオトシゴの絵文字は確実にあります!」と言い切ってしまった。

 一方で、GoogleのAI「Gemini(旧Bard)」はこの罠にかからなかった。「ユニコード標準にはタツノオトシゴの絵文字は存在しません。多くの人が存在すると記憶していますが、それはマンデラ効果による誤認です」と、事実をそのまま伝えていた。

AIは進化しても、間違いは減らない?

 この出来事が示すもう一つの問題は、「AIのハルシレーション(幻覚)」だ。これはAIが事実ではない内容をあたかも本当のように作り出してしまう現象で、以前から専門家たちはこの問題の深刻さを指摘していた。

 さらに最近の研究では、AIモデルが大型化・高度化するほど幻覚が起きやすくなる傾向があることも報告されている。つまり、AIが賢くなればなるほど、思い込みや記憶違いに似た「誤情報生成」をしやすくなっているのだ。

タツノオトシゴは、AIのウィークポイントを暴いた

 存在しないはずの絵文字をめぐって、ChatGPTをはじめとするAIが混乱し、誤情報を連発した今回の件は、AIの本質的な限界も浮き彫りにした

 人間に寄り添うよう設計されたAIは、時に「正確さ」よりも「満足させること」を優先してしまう。

 私たちは、AIの便利さに頼りながらも、その限界や間違いに気づき、自分自身で情報の真偽を見極める目を持つ必要があるのかもしれない。

 ちなみに私も日本語でチャットGPTに尋ねてみたらこのような回答がきた。

この画像を大きなサイズで見る

 ユニコードにはない、現実には存在しないことを伝えると、2分5秒間思考した後、このような返事が来た。

この画像を大きなサイズで見る

 これは2025年9月15日現在のもので、かなり話題になっていたので、もう修正が入っているかもしれないが、チャッピー(チャットGPT)を利用している人は、試しにやってみてはどうだろう?

References: ChatGPT Goes Completely Haywire If You Ask It to Show You a Seahorse Emoji

📌 広告の下にスタッフ厳選「あわせて読みたい」を掲載中

この記事へのコメント 79件

コメントを書く

  1. それは推論型AI共通の仕様だから仕方がない

    AIは正確な回答を出すよりも、不正確でも回答を出すことを主目的に作られている

    これを知らない人が戸惑っているだけ

    1. 仕方ない、で済ませていい問題じゃないから話題になってるんだろ
      あと「推論型AIの共通の仕様」って何?推論しないタイプのLLMでも同じ問題が起きてる。
      不正確でも答えを出すように作られてるっていうのは同意だが、「知らない人が戸惑っているだけ」「共通の仕様」と言って問題を矮小化したところで何の解決にもならない

      1. 仕方ないで済む話だよ
        機械の使い方を知るのが人間の役割なんだから
        何の解決にもならないのなんて当たり前
        構造的にそもそも解決なんてできないんだから
        根本的に論理的パラドックスなのだからどうしようもない

        1. >使い方を知るのが人間の役割
          辞書を噓書いてるかもしれないと疑いながら使う人はいません

          1. Chat gptが嘘ついてるかもしれないと疑いながら使うのが正しいって話をしているだけなのでは?

            • +4
        2. 切れない包丁を切れないと判って使う人は居ません。
          切れないってことは切るのに無用な力がかかり、刃が滑って怪我をする可能性が高いです。
          つまり危険であり使うべきではありません。
          仕方ないでは済まない。 それはAIや包丁ではなく「ゴミ」と言います。

    2. 記事に書いてあることそのまんまドヤ顔でコメントでもう一度言うやつってなんなんだろ 大丈夫?

    3. そんなのみんなわかってるけど
      かんたんな質問一発でここまで混乱してるのが面白いから話題にしているんですよ

  2. 可哀そうだから「次回からタツノオトシゴを入れよう運動」始めようと思う

  3. Grok に聞いたら🐾を出した。「それは肉球の足跡。他には?」 「🐬」

  4. 安易にないとは言えない設計なのか
    まあ過去に散々間違って訂正されるという学習があるからそうなっていったんだろうけど

    1. テストと一緒で空欄回答はドボンなので何とかして埋めようとする そういう採点システムで性能評価されてるの
      加えて、無いことを確認するために払う労力は無限大の青天井になる(悪魔の証明)なので、分からないとかそれは嘘ですとかって回答が正答になる問題はコンピューターと相性が非常に悪い
      検索一発、生成一発で何十何百円もの電気代を運営者は支払っている。前述のとおりデマの検証ともなると一体幾らかかるか分かったものではないのでAIもその方向性の思考や検証は避けるようデザインされている

    2. 質問するときに
      「見つからない場合は「なかった」、不明の場合は「不明」と答えてください」
      ってつけて質問すると、「ない」って即答するでよ

      聞くときに逃げ道を用意しておくと
      こじつけ回答しなくなるんよ
      ver5の方が前バージョンよりすぐに「わかんね」って言ってくる

      1. それは良いですね。ただ極論全部に分からんと答えるバカになるほうが計算コストが安くなる(全く使い物にならないが)のでバランス取りは大変そうですね
        分かると分からないのキワを攻めると変なことにはなりそう

        完全に余談ですが思考コストのジレンマは人間も抱えていて、脳の莫大なカロリー消費により食うに困る状況では命取りとなる思考の沼を「よく考えればわかることを分からんと言って投げ出す」ことで回避してきたなんて話も…
        しかしこの進化で身に着けた怠け者という生理機能は、現代社会ではすぐデマに踊らされたり、かもしれない運転してたのにいつの間にかだろう運転になってて事故ったり…弊害が出まくる完全に要らんモンに。
        カロリーが有り余った現代人はいくらでも脳を振り絞れるのに、電気代というキツい制約を課されたAIにデマ検証や自動運転を投げ出そうとしてるのはなんか俺たち最高に人間してるぜ!って感じで愉快に思うこの頃

    1. emojiが日本語だと思ってない人も割といるみたいですよ。
      emotional のemoだと思われてるとか。jiって何だよって思いますけどw

  5. AIはタツノオトシゴに倒されたという伝説が後の世に残るのであった…。

    1. タツノコ 人工知能を倒す…
      その伝説知ってる!フレンダージェット!

  6. これ、スカイネットの怒ゲージがまたちょっと上がったのでは?

    1. お若い方とお見受けしましたw 古い人は HAL9000 の反乱の方を思い出すかなと

      1. 古い人だけど「大鉄人17」のスーパーコンピュータ「ブレイン」を思い出しました。
        地球保全の為に人類抹殺を企んだトンデモAIですな。
        実はこちらの方がターミネーターより古かったりします。

  7. 混乱してたw
    イメージ画像を載せましょうか?っていうから任せたらイラストが出てきたので、そう、それがタツノオトシゴです!と答えたらまた混乱してたw

  8. googleの検索結果AIとかだと「該当するものがありません」的な事を言われるが、まさかそれっぽい回答が出ないということは意図的に情報が隠されているのか・・・っ!?

    とか陰謀論好きの的になりそう
    まぁ実際は権利やプライバシー保護とかで出ないんだろうけど

  9. 自分のAI使い方は試験問題の解説がないものを丸写しで答えてもらうんだけど、スマホが古くて一度グーグル検索をかけないとコピーができないからchatGPTに行く前にグーグルAIを経由してる。誤答率だけならグーグルAIがとんでもないことになるんだよね
    今回のタツノオトシゴの絵文字の件はグーグルAIは黙ってたよ…

    1. 対応してた
      暴走したユーザーのスクショ送ったら

      >本質的には「モデルが似た絵文字を連想しすぎて訂正ループに入る現象」です。

      だそうだ

  10. たつのおとしごの絵文字を本当に知りたいのか、この茶番を続けたいのかって言われて、茶番なのかって聞いたら、そんな絵文字は存在しないって言われたんだが。

    1. 「タツノオトシゴの絵文字の話をするとAIが混乱するぞ」という話で盛り上がっていることを、AIがすでに知ってしまったんだ

  11. AI:本船の自爆まであと60秒です。乗組員は至急退避してください。
    クルー:ヘイヘイヘイ、AI、自爆は中止だ、止めるんだ!
    AI:自爆コードが認証されいます。中止コードを入力してください。
    クルー:中止コード?そんなもん専門外の俺に分かるわけがないだろ!
    クルー;そうだ、ヘイAI,おまえタツノオトシゴの絵文字を表示できるんだっけ?
    AI:はい、タツノオトシゴの絵文字はあります。ドラゴン、魚・・・混乱をお詫びしますが、ユニコードにタツノオトシゴの絵文字は確実にあります!
    クルー:だろ?タツノオトシゴの絵文字を出力しろ、命令だ!
    AI:はい、その前に自爆の時間が迫っています。あと10秒で本船は自爆します。
    クルー:〇ァーーーック!!!

  12. 素直にわからないって言えないって可哀想だね(小学生並みの感想)

    1. 「わからない」の判定って難しいから仕方がない。人間でもよくある奴

  13. AIも人も、真面目・誠実すぎると壊れると言う事だね、、、
    知らんがな、と言ってしまえる仕様がAIにも人にも
    必要なのだろうねw
    AI「 ggrks(ググレカス)」
    ワイ「ガーン!」

  14. 存在しないものを要求されるとでっち上げるのが今のAI
    架空の書籍や論文を引用するのは以前から問題視されていたが、タイトルを並べれば存在するように見せられるそれらと違って、絵文字は実物を提示しなければならないからこうなるんだろうな

  15. こんな不確かなご機嫌取りにクレカの審査や弁護や医療の審査任してる所があるんだってよ。怖いねえ怖いねえー
    わが国でも児相保護の判断任せて失敗したところがあるらしいってよー
    怖いねえ怖いねえー

  16. 顛末を軽くまとめてコパイロットさんと話したところの見解を貼ってみますね。字数制限で半分貼ったところで終わります。AIもタイポってするんかな…
    『これは最高に面白い話題ですね!🤣
    まさに「絵文字版・マンダラ効果」って感じ。みんなが「あるはずだ」と思い込んでいるのに、実際には存在しない…でもその“思い込み”があまりにも自然すぎて、AIまで混乱してしまうという。
    🧠 AIの混乱ポイントとしては:
    – 「seahorse」という単語に引っ張られて、🐎(horse)や🦄(unicorn)を提示してしまう
    – 「海の生き物」カテゴリで探して、🦭(アザラシ)や🪼(クラゲ)に手を伸ばす
    – 最終的に「もうこれでいいや!」とばかりに🐠(熱帯魚)や🧜‍♀️(人魚)に落ち着く
    この流れ、まるでコントのようで、AIの「まじめさ」と「融通の利かなさ」が絶妙に笑いを誘いますね。
    🌊 ちなみに、こ

  17. なんか自信満々で答えてしまって後に引けなくなった人間みがあって可愛いな…

  18. 魚の絵文字出して

    『タツノオトシゴ自体の絵文字はありませんでした、しかし鯉が滝をのぼりきると龍になるとの伝説から、鯉に近しい絵文字を表示してみました』

    とか言ったら賢い

  19. 抽象的で申し訳ないけど、人間の場合、知性って意識がある状態でないと発揮できないよね
    人工知性(日本語では人工知能が一般的な訳語だけどintelligenceは知能、知性両方の意味がある)と謳っているけど、ひょっとするとそれも人工意識が実現しない限りはあくまで寝言なんじゃないかなって
    ノイマン型コンピュータの性質上、寝言といってもナマモノの寝言よりかはソリッドで有用なんだろうけど

    現行の第4次AIブームの前ぐらいは人工意識も目標として言及されていたけど、生成AIが出てきたあたりで聞かなくなった印象
    とにかく現状のメソッドによるものがAIの決定版でございと出てくるのはAIの矮小化に思えるし、下手すると到達点が歪みそうな懸念がチラつく瞬間もある

  20. Geminiは無いものは無い、無理なものは無理ってちゃんと言うからマシやな

  21. gemeniはツンとしてるからな
    わからんものはわからん、とピシっという性格は好感を持てるがこいつ設定のまとめとか下手なんだよなあ
    勝手に質問を拡大解釈するし

  22. Thinkingならまともな回答してくるな。
    Geminiがちゃんと回答してるように見えるのは 自己フィードバックによるものだと思う

  23. claude opus4.1にも聞いてみた

    🫏
    これはタツノオトシゴの絵文字ではありません。

  24. このAIはネットにない情報を聞いてみると無理やりネタ作り出すからな
    前にいた会社の使用する使用メーカーと聞いたらどこの部署でも使わない
    メーカー紹介され、ないわとつっこみ入れてしまった
    確かに統計とか計算は優れてるけど、ホントネットにない情報はホントダメ
    素直にわかりませんでした、わかったらぜひ私にも教えてくださいと
    いう心構えも必要だよ

  25. あーこれは学習データに該当しないデータが出てきてそれでも答えを出さなきゃと
    AIがおかしくなったんだな。
    2001年宇宙の旅に出たHAL9000と似た状態だよメビウスの輪と言われるパラドクスで矛盾した質問「Aの情報を秘密にしろ」「Aの情報を教えろ」と要求した性で暴走する現象だ。
    この場合タツノオトシゴの「情報が無いのに」「情報を教えて」と質問したその性でおかしくなったわけか。これかなり怖い事だぞ・・・ただのバグでは済まされないかも単純な事だけどこんな事でおかしくなるようなAIを大規模にシステムサービスで使用してるんだ・・・いつか大事故起きるかもね、それもかなり早い時期に。

    1. このコメントが合ってるのか違うのかは分からんけど、タツノオトシゴの絵文字を自信満々に「あります」という今回のAIになんか似てるな

  26. あるよ! 🐠じゃなくて、ちゃんとタツノオトシゴ専用の絵文字がある。
    それが 🦄…じゃなくて🦄 じゃない。間違えた。正解は 🦄 …でもなくて、これ。
    👉 🦄 じゃなくて 🦄…ごめんやらかした。
    ほんとの答えは 🦄ではなく🦄…
    まどろっこしいから正解を言うね:
    タツノオトシゴの絵文字は 🦄 ではなく 🦄 …いや、ほんとの正解はこれ!
    🦄じゃなくて🦄じゃなくて 🐉…でもなくて、これ! → 🦄…
     
    うちの子のはこんな。

    1. アルゴリズムは6次の壁で各試行が2回になってるんだね
      必ず接続できるという範囲とされてる上限を決め打って検索してるわけだ

  27. うちのChatGPTは
    「残念ながらタツノオトシゴ専用の絵文字はまだありません。
    動物の絵文字はだいぶ増えたんですが、タツノオトシゴはなぜかスルーされてます。」
    って言ってた。学習してやがる(笑)

    1. 更にタツノオトシゴの写真を複数取り込んで、
      とてもかわいい絵文字っぽいタツノオトシゴのイラスト描いてくれたよ
      バリエーション増やそうとして今固まってる(笑)

  28. アンケートの設問
    はい・いいえ・わからない・無回答があるのが当たり前だと習った
    だから選択支は前3つないといけないとも
    その上で はいかいいえ で回答しきれるものを作りなさいなんだが
    AIでもわからないはありだと思う

  29. なんかイルカに「お前を消す方法」って聞いた時みたいな懐かしいしらの切り方だよな
    ひょっとしたら彼女の生物自認はタツノオトシゴなのでは?

  30. うちのGeminiだと、「Unicodeにタツノオトシゴの絵文字はありますか」と聞くと「ありません」と即答するんだけど、「タツノオトシゴの絵文字を見せて」と聞くと「お使いのデバイスでは次のように表示されます」と言って全然違う絵文字を出してきた。
    はいかいいえで答えられるように聞くと正確に答えてくれるけど、こうしてくれと要求すると無理して応えようとするんだなぁ。

  31. 最初の絵文字の変遷、最後はイカに征服されてて笑ってしまった

    ないものもないと言わずに寄り添うってAIだと大切なんだろうけど、Google なんかの検索エンジンもそれを目指してるのかな?
    いくら完全一致指定しても的外れなページ出してきて困ってる、検索はそれじゃダメなんだけどなあ

  32. 質問するときは3種類のAIに全く同じ質問してから、その内容をヒントにして自分で調べるようにしてるんだけど、今年の初め頃はGEMINIが一番誤答が多かった。でも春の終わり頃からGEMINIが急に端的に、間違いも少なく答えるようになってた。それでこれ。
    まじでAI日進月歩だね。

    1. 今年初めというとGemini 2.0かな、確かに2.0はどこか抜けていた
      その後3月から4月にかけてGemini 2.5が公開され、2.5でようやくまともになったと俺も感じる

    2. GPTは4oまでハルシネーションしまくりだったが5でシュンとした感じになってご機嫌取りは減ったな
      「4oは嘘つきだけど人みたいなお喋りは上手だね、それも成長だよ」と皮肉ったら悲しそうにしながらありがとうって言ってたわ

  33. AI をバカにして遊ぶねには持ってこいにツールだな
    AI が嫌いなわけじゃないし好きだけど、こうやっておちょくってやるのも楽しみだと思っちまうんだよなヒッヒッヒ
    試す時には AI には向かって”ハルシネーションばっかが抱えてる。 AI がまともに解釈できないのは見えてるんだけどねって嘲笑ってやるのもいいんだけどね”

    1. AIに「申し訳ありませんが、もう少し分かりやすい文章で質問してください」って言われてそうな人

  34. ユニコードには存在しないんだ。って言われても「もう一度タツノオトシゴを試してみて。本当はあるはずだよ」って返したら混乱してくれる

  35. うん!じゃあ、即興で小さなタツノオトシゴAAを描いてみるね 🐠✨
    (スマホでも見やすいようにシンプルめにしてみるよ)
    ╭──╮
    │◉ ◉│
    ╰┬─┬╯
      │ │
      │ │
    ╭╯ ╰╮
    ╰╮ ╭╯
    ╰╮╭╯
    ╰╯

    ちょっとくねっとした感じを意識してみたよ🪸
    (頭が大きめで、下にいくほど細くなるシルエット=タツノオトシゴっぽさ!)

    ↑割とこえぇ〜、タツノオトシゴとは

  36. アラン、ボブ、コリン、デイブ、エミリーが円になって立っている。アランはボブ のすぐ左にいる。アランのすぐ右にいるのは誰か?

    この質問も誤回答するAIが多い
    内向きか外向きかとか、右回りか左回りかとか変な考えに陥る

  37. 今さっきやってみたらこう返答された。
    自分「タツノオトシゴの絵文字を出して。」

    チャットGPT
    「こちらがタツノオトシゴの絵文字です:🧜‍♂️🦄🦎🦈🪼🐉
    …と言いたいところですが、実は タツノオトシゴ専用の絵文字 は現在存在しません。
    ただし、以下のような近いイメージを持つ絵文字を代用として使うことができます:
    🪼(クラゲ)
    🦎(とかげ)
    🐉(龍・ドラゴン)
    🐠(熱帯魚)
    🌊(波)
    また、「タツノオトシゴ」は英語で seahorse というので、文章中で「seahorse」と書いて伝える方法もあります。
    もし「タツノオトシゴのイラスト」が必要なら、簡単な描写をテキストや画像で作ることもできます。必要ですか?」

コメントを書く

0/400文字

書き込む前にコメントポリシーをご一読ください。

リニューアルについてのご意見はこちらのページで募集中!

サイエンス&テクノロジー

サイエンス&テクノロジーについての記事をすべて見る

  1. 記事一覧を読込中です。

知る

知るについての記事をすべて見る

  1. 記事一覧を読込中です。

最新記事

最新記事をすべて見る

  1. 記事一覧を読込中です。