楽天が遅すぎるから全部vpsか東京付近拠点に移動しないといけないかなあと思ってたけど、
見てる限りそこまでは大丈夫そうっぽい
おそらくは
例えば/blog/1から/blog/390まではこれまで通りにサーヴして、/blog/391から/blog/420とそれ以降までを別サーバからサーヴするってことができる。
あるいは今の最新が420だったら421以降を別サーバのに指定するとか。クローラは新しい記事の方に積極的に来てくれるので、アセスメントを早めたいならこっちの方が合理的。なのでそういう技術的なABテスト、パッチテストをする時には僕はこういうやり方をしている。
なんか自宅サーバを過小視してる意見が多いんだけど
本当に理解に苦しむ。
なんで平然と金にならないポートフォリオにも多分ならないアクセス来てないし来るかも分からない適当なホビープロジェクト1つに月12ドル(1600円)とか払える?
あと平然とクラウド採用できる意識も理解できない
notionのエコシステムに自分から依存しようとしたり、mongoでもpostgresでもredisでもreduxでもnextでも使ってればいいのにsupabase採用したり、
つい最近だって(もう一年くらい前か…)imgur事件あっただろ。
こういう複雑さってたぶん結局チーム(複数人)でやろうとする前提があるからなんだよなおそらく一つとしては
全部一人でできて全部一人でやるなら色々すっ飛ばせる。gitとか典型例。
たまに(いや結構)一人で開発してるプロジェクトで他に誰がコミットするでも使うでも評価するでもないのにgithubに都度pushして入れてるみたいな人を見かけるけど、学習目的っていうならいいかもしれないが、そうでないなら何のためにやってるのか理解できないので後学のためにご教示してほしい。
生成AIブログで思うのが、
これたぶん、googleはより一層クロールバジェットをシビアにすることになると思うんだ
っていうのも、シンプルに考えて1impしか取れない(serpに1回くらいしか表示されない←100年に1回くらいしか検索されない)ような記事(=LQコンテンツ)が100万記事あるドメイン(サイト)があるとして、これはgoogleが適当に1000くらいクロール(サンプリング)した時点で統計的に察すれば、残りの99万余りは蔑ろにされる、されざるを得ない、するのが経済合理的。
先見の明を持つなら、AI使うにしろ使わないにしろ、
数より質をより重視するべき、という流れになるのが正
ここで言う質を誤解してはならない。ウェブにおいてこの質とは、少なくとも昨今においては、文字数でも滞在時間でもなく、serpにおけるimpやctr。
数より質…これを考えて損することはない。
何、殊ウェブにおいてはタイトルが9割。
これを忘れないでおけるかどうかが命運を分ける気がする。