Block search engines via robots.txt (#631)

Prevents instances from being rate limited due to being senselessly
crawled by search engines. Since there is no reason to index Nitter
instances, simply block all robots. Notably, this does *not* affect link
previews (e.g. in various chat software).
このコミットが含まれているのは:
minus 2022-06-04 15:48:25 +00:00 committed by GitHub
コミット c543a1df8c
この署名に対応する既知のキーがデータベースに存在しません
GPGキーID: 4AEE18F83AFDEB23
1個のファイルの変更2行の追加0行の削除

2
public/robots.txt ノーマルファイル
ファイルの表示

@ -0,0 +1,2 @@
User-agent: *
Disallow: /