ブログ

そのジャーナルのAIポリシー、正しく理解していますか?

2026年1月28日、執筆者:Guy Harris

2026年1月1日、アメリカ科学振興協会(AAAS:American Association for the Advancement of Science)の旗艦誌であるScienceが、AI生成テキスト(AI-generated text)の全面禁止を打ち出しました。そのポリシーは一切の曖昧さを排したものです。

"Text generated by AI, large language models, or similar algorithmic tools may not be used in papers published in Science journals."

(AI、大規模言語モデル、またはこれに類するアルゴリズムツールによって生成されたテキストは、Scienceジャーナルに掲載される論文において使用してはならない。)

一方、Natureは対照的な方針を採っています。AI生成テキストの使用を開示(disclosure)付きで認めているのです。しかも、多くの研究者が見落としている重要な区別を設けています。コピーエディティング(copy editing:英文校正)――すなわち、人間が執筆した文章の文法、可読性、言語品質を改善するためにAIを使用した場合――は、開示すら不要とされているのです。

世界で最も影響力のある二大ジャーナルが、根本的に相容れないポリシーを掲げている――これが2026年初頭の現状です。

以下、研究者が知っておくべきポイントを整理します。

ジャーナルのAIポリシーは、大きく4つのカテゴリーに分類されます。

1. 全面禁止(Science/AAAS)。 原稿中にAI生成テキストを含めることは認められません。データ解析、コーディング、図表作成へのAIツール使用はケースバイケースで評価されますが、使用したプロンプト(prompt:AIへの指示文)を含め、完全な開示が求められます。

2. 開示を条件に許可(Elsevier、Wiley、Taylor & Francis、SAGE、その他主要出版社)。 テキストの起草や推敲にAIを使用することは認められますが、その旨を申告する必要があります。ICMJE(International Committee of Medical Journal Editors:医学雑誌編集者国際委員会)のガイドライン――ほとんどの医学系ジャーナルが準拠しているガイドラインです――は、AIの使用をMethods(方法)セクションに記載するよう求めています。AIを著者(author)として記載することは認められていません。

3. 条件付き開示で許可(Nature/Springer Nature)。 ここが最も注目すべき点です。Natureは以下の2つを明確に区別しています。

  • 生成的使用(generative use)(AIがテキストを起草した、あるいは実質的に生成した場合)→ 開示が必要
  • 校正的使用(editing use)(人間が執筆したテキストの言語、文法、可読性を改善するためにAIを使用した場合)→ 開示不要

この区別は、英語を母語としない研究者にとって極めて重要な意味を持ちます。自分自身で原稿を執筆し、その後AIを使って英語を推敲した場合、Natureはこれを開示事項とは見なさないのです。その論理は明快です。これは人間のコピーエディターを雇うことと機能的に同等であり、ジャーナルがこれまで英文校正サービスの使用について開示を求めたことはなかった、というものです。

4. ポリシー未策定。 多くの小規模ジャーナルや地域ジャーナルは、AIに関するポリシーをまだ定めていません。ポリシーがないことは、許可を意味するものではありません。これは今後埋められるであろう空白であり、場合によっては遡及的に(retroactively)適用される可能性もあります。

実際にはどのような意味を持つのか

Natureが設けた「生成的使用」と「校正的使用」の区別は、ジャーナルのAIポリシーにおける最も重要な進展ではないかと考えられます。この区別は、当社のお客様にとって最も切実なユースケース(use case:利用場面)に対して、いわばセーフハーバー(safe harbor:安全港)を提供するものです。すなわち、研究者自身がデータと解釈に基づいて原稿を執筆し、その後、人間の編集者であれAIであれ、あるいはその両方であれ、ツールを使って英語の正確さと文章の明瞭さを確保する――このプロセスに対する安全保障です。

これは、ChatGPTに「XがYに及ぼす影響についてIntroductionを書いてください」と依頼することとは根本的に異なります。それは生成的使用であり、すべての主要出版社が最低限、開示を求めるものです。

しかし、課題もあります。校正と生成の境界線は、必ずしも明確ではないのです。構成の不十分なパラグラフをChatGPTに貼り付けて「もっと分かりやすく書き直してください」と依頼した場合、その出力は「校正されたテキスト」なのでしょうか、それとも「生成されたテキスト」なのでしょうか。正直なところ、AIがどの程度内容を変更したかによる、としか言えません。そして、多くの研究者はこの点を注意深く追跡していないのが現状ではないでしょうか。

著者への提言

1. 投稿前に、投稿先ジャーナルの具体的なポリシーを確認してください。 すべてのジャーナルが同じルールに従っているとは決して思わないでください。ScienceとNature――大学の図書館では同じ書架に並んでいることもある二誌――のポリシーは、両立不可能なほど異なっています。

2. 自身のワークフローにおいて、校正と生成を区別してください。 自分で文を書き、AIに文法を修正してもらうのは校正です。AIに文を書いてもらうのは生成です。自分が今どちらを行っているのか、常に意識することが重要です。

3. 迷ったら、開示してください。 開示しすぎることにペナルティはありません。しかし、開示が不十分であった場合には、深刻な結果を招く可能性があります。

4. AIとのやり取りを記録してください。 ICMJEは、使用したAIツール名、バージョン、やり取りの内容を記載するよう推奨しています。これは手間のかかる作業ではありませんが、万全の保護となります。

5. 著者は自分自身であることを忘れないでください。 AIに説明責任(accountability)を問うジャーナルは存在しません。原稿中のすべての主張、すべてのデータポイント、すべての引用文献に対する責任は、それがどのような過程で生み出されたものであれ、著者自身が負うものです。

AIポリシーをめぐる状況は、今後も変化し続けるでしょう。規制を強化するジャーナルがある一方で、Natureが先駆けた校正/生成の区別を正式に採用するジャーナルも出てくると考えられます。しかし、変わらない原則が一つあります。論文中の科学に対する責任は、著者自身が負うということです。ツールは変わります。しかし、その責務は変わりません。