博文

OpenCV convert image color

图片
int main() { cv::Mat src = cv::imread(IMG_PATH); cv::imshow("Original", src); int i, j; int cPointR, cPointG, cPointB, cPoint;//currentPoint; for (i = 1; i < src.rows; i++) for (j = 1; j < src.cols; j++) { cPointB = src.at<cv::Vec3b>(i, j)[0]; cPointG = src.at<cv::Vec3b>(i, j)[1]; cPointR = src.at<cv::Vec3b>(i, j)[2]; if (cPointB > 100 & cPointR < 100 & cPointG < 100) { src.at<cv::Vec3b>(i, j)[0] = 0; src.at<cv::Vec3b>(i, j)[1] = 0; src.at<cv::Vec3b>(i, j)[2] = 2000; } } cv::imshow("Convet", src); cv::waitKey(0); return 0; }

Linux Cron

crontab -e # 修改 crontab 文件,如果文件不存在会自动创建 crontab –l # 显示 crontab 文件 crontab -r # 删除 crontab 文件 crontab -ir # 删除 crontab 文件前提醒用户 #Example # m h  dom mon dow   command */2 * * * * date >> ~/time.log ## 每隔两分钟就执行 date >> ~/time.log 命令(记录当前时间到time.log文件)。你可以把它加入你的crontab中,然后保存退出。 sudo service cron restart # 星号          表示任意值,比如在小时部分填写 * 代表任意小时(每小时) # 逗号          可以允许在一个部分中填写多个值,比如在分钟部分填写 1,3 表示一分钟或三分钟 # 斜线          一般配合 * 使用,代表每隔多长时间,比如在小时部分填写 */2 代表每隔两分钟。所以 */1 和 * 没有区别                   */2 可以看成是能被2整除的任意值。 * * * * * # 每隔一分钟执行一次任务 0 * * * * # 每小时的0点执行一次任务,比如6:00,10:00 6,10 * 2 * * # 每个月2号,每小时的6分和10分执行一次任务 */3,*/5 * * * * # 每隔3分钟或5分钟执行一次任务,比如10:03,10:05,10:06 [Link][] https://blog.csdn.net/u014221090/article/details/53816231 [Link][] https://www.cnblogs.com/daxian2012/articles/2589894.html [Detail] https://www.cnblogs.com/lonmyblog/p/8006789.html

链表

链表 class Node:     def __init__(self,initdata):         self.data = initdata         self.next = None     def getData(self):         return self.data     def getNext(self):         return self.next     def setData(self,newdata):         self.data = newdata     def setNext(self,newnext):         self.next = newnext 无序链表 class UnorderedList:          # init_head is last Node.      def __init__(self):         self.head = None              def isEmpty(self):         return self.head == None     def add(self,item):         temp = Node(item)         temp.setNext(self.head)         self.head = temp     def size(self):         current = self.head         count = 0         while current != None:             count = count + 1             current = current.getNext()         return count          def search(self,item):         current = self.head         found = False         while current != None and not found:             if current.getData()

String

# trim # Python string_ = string.strip() # Java String string_ = string.trim(); # PHP $ string_ = trim( $stirng ); # substring  # Python result = string[0:6] # 0/6 - Index # Java String sub = string.substring(0, 6); # 0/6 - Index # PHP $ string_ = substr( $string , 0, 6); # 0 - Start # 6 - Length # equals # Java Only boolean tf = string . equals ( "string" ); # Operation == <- HDD address equals # length # Python lenght = len( string ) # Java int i = string .lenght(); # PHP $ int = strlen($ string ); # split # Python array = string.split( "delimiter" ) # Java String[] array = string.split( "," ); # Parameter : Regex, limit # Can use Regex. # PHP $array = explode( "delimiter" , $string); # concat  # Java String string = string .concat(string_) ; String string = string + string_ ; # Python / PHP string = string + string_ $string = $string . $string_ ;

Tensorflow Serving API의 Predict Server 구축에서 CPU | GPU의 속도차이

Tensorflow Serving API는 Predict Server 구축에서 CPU | GPU의 속도차이 [결론]  GPU [사유] 1개의 Prediction Request를 진행할때 CPU | GPU의 성능차이는 별로 없어 보이지만 대량 요청의 경우에는 GPU가 훨씬 빠른 성능을 보인다고 한다. 너무 당연한 얘기.... 그냥 기록 남길려고 한다. [참고링크] https://github.com/tensorflow/serving/issues/798

Ubuntu Linux에서 Tensorflow Serving API 설치

图片
Tensorflow Serving 문서 https://www.tensorflow.org/serving/ 하기의 내용은 Serving문서의 내용을 기반으로 만듬. 0. 환경 Ubuntu 16.04 | 18.04 Python2.7 ------- 180605 UPDATE ------- 이번에 서버이전으로 인해 과거에 세팅했던 Serving API도 함께 재세팅하면서 캡처화면을 남기게 되었다. 실제 Serving 사용에 도움이 되었으면 하는 바램이다. [Serving Test VM] [구글 클라우드] High Memory | vCPU 2개 + 13GB Client는 Python2 + gunicorn + Flask Web API기준으로 이미지당 2+초 걸리는것으로 나왔다. High CPU |  GPU는 속도가 더 빠를것으로 추정한다. 참고로 Serving Client 파일은 Python | C++로 제공하고 있다. https://github.com/tensorflow/serving/tree/master/tensorflow_serving/example [180725 UPDATE]   vCPU * 8  + 16GB 이미지/ 1초+ 처리 가능함. #---------------------------   [OS] [Add Repository] echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | sudo tee /etc/apt/sources.list.d/tensorflow-serving.list curl https: //storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.