Sitemapを生成する
webサイトを運営してると、やっとくべきかなと思うのはSitemapやrobot.txtの設定ですよね?
なんとかPelicanというかPythonだけでなんとかならんかと思ったので、その作業ログ。
Googleの検索にひっかけたいじゃん
あ、なんでSitmapがいるかって?
そんなもん、Googleの検索でヒットしてほしいからですやん!
ヒットして、検索流入上がって、アフィリエイト収益稼いで、仕事辞めるんじゃ!!
Pelicanでsitemap.xmlの生成ってどうすんの?
熱い思いはさておき、PelicanでSitemap.xmlって生成できんのかね?
できなかったら割とめんどくさいけど更新したらTwitterとかに自動で投稿するしか…。とか考えてました。
githubにTipsが上がってた
いや、これまんまですやん…。
SITEURL = '' 回避方法
ただ1つだけ問題発生。
僕のpelicanconf.pyは、
pelicanconf.py
SITEURL = ''
なんですよね...。
ローカルでmake html
した時に環境テストしてた時の名残ですね。
しかし、いまさら設定するのも面倒だし、ローカルでテストする時に切替えるの面倒だし。
あ、
別の変数用意すればいいじゃん
はい、{{SITEURL}}
を{{ROOTURL}}
に変更してみましょうかね。
無事解決。
サンプルソース
pelicanconf.py
python:pelicanconf.py
ROOTURL = 'https://yamachaaan.net'
DIRECT_TEMPLATES = ('index', 'tags', 'categories', 'archives', 'sitemap')
SITEMAP_SAVE_AS = 'sitemap.xml'
まとめ
無事、sitemap.xmlが生成されたのでGoogleSearchConsoleに登録してきた。
結果はまだ7件。