最近想要從youtube下載一個俄劇《Не родись красивой》,總共有200個視頻,只要找到所有的鏈接,在vps上用youtube-dl下載一下,bypy upload到百度雲就行了,但是一個一個去複製粘貼鏈接太麻煩了。

視頻鏈接是有規律的,所有視頻鏈接基本都是這樣的

https://www.youtube.com/watch?v=n-e7vFWQiuk&index=190
https://www.youtube.com/watch?v=Y1vfffLsAUM&index=191
https://www.youtube.com/watch?v=GSAK9yGjRUs&index=192
https://www.youtube.com/watch?v=DoLuw-Is-m0&index=193
https://www.youtube.com/watch?v=AppQtK5f24k&index=194
https://www.youtube.com/watch?v=_ep-5irLjb4&index=195
https://www.youtube.com/watch?v=X7E3J5KHS8U&index=196
https://www.youtube.com/watch?v=jdJedQVZs0I&index=197
https://www.youtube.com/watch?v=aMdUNAy_L6Y&index=198
https://www.youtube.com/watch?v=auMi6aw92zI&index=199
https://www.youtube.com/watch?v=8pQlTRFR8zk&index=200

我把那個網頁保存下來,可以在此處找到,重命名爲index.html,之後輸入這條命令

cat index.html |  grep -o 'https://www.youtube.com/watch.*index=[[:digit:]]\{1,3\}'

相關的鏈接就都出來了,十分方便,這次不知爲何有重複的鏈接,使用一下uniq可以消除重複行。

cat index.html |  grep -o 'https://www.youtube.com/watch.*index=[[:digit:]]\{1,3\}' | uniq > download-link.txt

如果查看shadowsocks日誌,可以先sort一下,再用uniq命令。

cat shadowsocks.log | grep -E -o "from[[:space:]]([0-9]{1,3}[\.]){3}[0-9]{1,3}\:([0-9]){1,5}" > ip.port
cat ip.port | sort -n > ip-sort.log

查找MAC地址

ifconfig | grep -E -o '([0-9A-Fa-f]{2}[:-]){5}([0-9A-Fa-f]{2})'
ifconfig  | grep -E  -o '((\w){2}[:]){5}(\w){2}'