[RocketMQ] Broker CommitLogDispatcher 异步构建ConsumeQueue和IndexFile源码解析 (十四)

  1. CommitLogDispatcherBuildConsumeQueue: 异步构建ConsumerQueue。
  2. CommitLogDispatcherBuildIndex: 异步构建IndexFile。

    文章目录

        • 1.CommitLogDispatcherBuildConsumeQueue构建ConsumeQueue
          • 1.1 putMessagePositionInfo写入消息位置信息
          • 1.2 findConsumeQueue查找ConsumeQueue
            • 1.2.1 创建ConsumeQueue
          • 1.3 putMessagePositionInfoWrapper追加消息索引
            • 1.3.1 putMessagePositionInfo写入消息位置信息
            • 1.3.2 MappedFile#appendMessage追加消息
        • 2.CommitLogDispatcherBuildIndex构建IndexFile
          • 2.1 buildIndex构建Index索引
            • 2.1.1 retryGetAndCreateIndexFile获取IndexFile
            • 2.1.2 getAndCreateLastIndexFile获取最新索引文件
            • 2.1.3 创建IndexFile
            • 2.1.4 buildKey构建Key
            • 2.1.5 putKey构建Index索引
        • 3.总结

1.CommitLogDispatcherBuildConsumeQueue构建ConsumeQueue

CommitLogDispatcherBuildConsumeQueue用于接收分发请求并构建ConsumeQueue。

对于非事务消息或者是事务commit消息, 调用DefaultMessageStore#putMessagePositionInfo方法写入消息位置信息到consumeQueue, 如果是事务prepared消息和事务rollback消息, 则不出理。

class CommitLogDispatcherBuildConsumeQueue implements CommitLogDispatcher {/*** DefaultMessageStore的方法** @param request 分派消息请求*/@Overridepublic void dispatch(DispatchRequest request) {//从该消息的消息系统flag中获取事务状态final int tranType = MessageSysFlag.getTransactionValue(request.getSysFlag());switch (tranType) {//如果不是事务消息或者是事务commit消息,则进行处理case MessageSysFlag.TRANSACTION_NOT_TYPE:case MessageSysFlag.TRANSACTION_COMMIT_TYPE://写入消息位置信息到consumeQueueDefaultMessageStore.this.putMessagePositionInfo(request);break;//如果是事务prepared消息或者是事务rollback消息,则不进行处理case MessageSysFlag.TRANSACTION_PREPARED_TYPE:case MessageSysFlag.TRANSACTION_ROLLBACK_TYPE:break;}}
}

1.1 putMessagePositionInfo写入消息位置信息

  1. 首先调用findConsumeQueue方法根据topic和队列id确定需要写入的ConsumeQueue。
  2. 然后调用ConsumeQueue#putMessagePositionInfoWrapper方法将消息信息追加到ConsumeQueue索引文件中。
/*** DefaultMessageStore的方法* 写入消息位置信息** @param dispatchRequest 分派消息请求*/
public void putMessagePositionInfo(DispatchRequest dispatchRequest) {/** 根据topic和队列id确定ConsumeQueue*/ConsumeQueue cq = this.findConsumeQueue(dispatchRequest.getTopic(), dispatchRequest.getQueueId());/** 将消息信息追加到ConsumeQueue索引文件中*/cq.putMessagePositionInfoWrapper(dispatchRequest, checkMultiDispatchQueue(dispatchRequest));
}

1.2 findConsumeQueue查找ConsumeQueue

根据topic和队列id确定需要写入的ConsumeQueue, 查找的目标是consumeQueueTable缓存集合。ConsumerQueue文件是延迟加载的。需要到该ConsumeQueue的时候才会新建。

/*** DefaultMessageStore* <p>* 根据topic和队列id查找ConsumeQueue*/
public ConsumeQueue findConsumeQueue(String topic, int queueId) {//从consumeQueueTable中获取该topic所有的队列ConcurrentMap<Integer, ConsumeQueue> map = consumeQueueTable.get(topic);//如果没有保存该topic的喜喜,那么存入一个空的mapif (null == map) {ConcurrentMap<Integer, ConsumeQueue> newMap = new ConcurrentHashMap<Integer, ConsumeQueue>(128);ConcurrentMap<Integer, ConsumeQueue> oldMap = consumeQueueTable.putIfAbsent(topic, newMap);if (oldMap != null) {map = oldMap;} else {map = newMap;}}// 从map中根据queueId 获取对应的 消费队列ConsumeQueue logic = map.get(queueId);//如果ConsumeQueue为null,那么新建,所以说ConsumeQueue是延迟创建的if (null == logic) {//新建ConsumeQueueConsumeQueue newLogic = new ConsumeQueue(topic,queueId,StorePathConfigHelper.getStorePathConsumeQueue(this.messageStoreConfig.getStorePathRootDir()),//单个文件大小,默认为可存储30W数据的大小,每条数据20Bytethis.getMessageStoreConfig().getMappedFileSizeConsumeQueue(),this);//存入map中,如果已存在则取旧的ConsumeQueue oldLogic = map.putIfAbsent(queueId, newLogic);if (oldLogic != null) {logic = oldLogic;} else {// light message queue(LMQ)if (MixAll.isLmq(topic)) {lmqConsumeQueueNum.getAndIncrement();}logic = newLogic;}}return logic;
}
1.2.1 创建ConsumeQueue

创建ConsumerQueue, 初始化各种属性, 会初始化20个字节的堆外内存, 用于临时存储单个索引, 可以重复使用。

public ConsumeQueue(final String topic,final int queueId,final String storePath,final int mappedFileSize,final DefaultMessageStore defaultMessageStore) {//各种属性this.storePath = storePath;//单个文件大小,默认为可存储30W数据的大小,每条数据20Bytethis.mappedFileSize = mappedFileSize;this.defaultMessageStore = defaultMessageStore;this.topic = topic;this.queueId = queueId;//queue的路径 $HOME/store/consumequeue/{topic}/{queueId}/{fileName}String queueDir = this.storePath+ File.separator + topic+ File.separator + queueId;//创建mappedFileQueue,内部保存在该queueId下面的所有的consumeQueue文件集合mappedFiles相当于一个文件夹this.mappedFileQueue = new MappedFileQueue(queueDir, mappedFileSize, null);//分配20个字节的堆外内存,用于临时存储单个索引,这段内存可循环使用this.byteBufferIndex = ByteBuffer.allocate(CQ_STORE_UNIT_SIZE);//是否启用消息队列的扩展存储,默认falseif (defaultMessageStore.getMessageStoreConfig().isEnableConsumeQueueExt()) {this.consumeQueueExt = new ConsumeQueueExt(topic,queueId,StorePathConfigHelper.getStorePathConsumeQueueExt(defaultMessageStore.getMessageStoreConfig().getStorePathRootDir()),defaultMessageStore.getMessageStoreConfig().getMappedFileSizeConsumeQueueExt(),defaultMessageStore.getMessageStoreConfig().getBitMapLengthConsumeQueueExt());}
}

ConsumeQueue文件可以看成是基于topic的commitlog索引文件, ConsumeQueue文件的组织方式: topic/queue/file三层组织结构, $HOME/store/consumequeue/{topic}/{queueId}/{fileName}。

在这里插入图片描述

1.3 putMessagePositionInfoWrapper追加消息索引

构建消息索引信息并且存入找到的ConsumeQueue文件中。支持重试, 最多30次。

/*** ConsumeQueue的方法* <p>* 将消息信息追加到ConsumeQueue索引文件中*/
public void putMessagePositionInfoWrapper(DispatchRequest request, boolean multiQueue) {//最大重试次数30final int maxRetries = 30;//检查ConsumeQueue文件是否可写boolean canWrite = this.defaultMessageStore.getRunningFlags().isCQWriteable();//如果文件可写,并且重试次数小于30次,那么写入ConsumeQueue索引for (int i = 0; i < maxRetries && canWrite; i++) {//获取tagCodelong tagsCode = request.getTagsCode();//如果支持扩展信息写入,默认falseif (isExtWriteEnable()) {ConsumeQueueExt.CqExtUnit cqExtUnit = new ConsumeQueueExt.CqExtUnit();cqExtUnit.setFilterBitMap(request.getBitMap());cqExtUnit.setMsgStoreTime(request.getStoreTimestamp());cqExtUnit.setTagsCode(request.getTagsCode());long extAddr = this.consumeQueueExt.put(cqExtUnit);if (isExtAddr(extAddr)) {tagsCode = extAddr;} else {log.warn("Save consume queue extend fail, So just save tagsCode! {}, topic:{}, queueId:{}, offset:{}", cqExtUnit,topic, queueId, request.getCommitLogOffset());}}/** 写入消息位置信息到ConsumeQueue中*/boolean result = this.putMessagePositionInfo(request.getCommitLogOffset(),request.getMsgSize(), tagsCode, request.getConsumeQueueOffset());if (result) {if (this.defaultMessageStore.getMessageStoreConfig().getBrokerRole() == BrokerRole.SLAVE ||this.defaultMessageStore.getMessageStoreConfig().isEnableDLegerCommitLog()) {//修改StoreCheckpoint中的physicMsgTimestamp:最新commitlog文件的刷盘时间戳,单位毫秒this.defaultMessageStore.getStoreCheckpoint().setPhysicMsgTimestamp(request.getStoreTimestamp());}this.defaultMessageStore.getStoreCheckpoint().setLogicsMsgTimestamp(request.getStoreTimestamp());if (multiQueue) {multiDispatchLmqQueue(request, maxRetries);}return;} else {// XXX: warn and notify melog.warn("[BUG]put commit log position info to " + topic + ":" + queueId + " " + request.getCommitLogOffset()+ " failed, retry " + i + " times");try {Thread.sleep(1000);} catch (InterruptedException e) {log.warn("", e);}}}// XXX: warn and notify melog.error("[BUG]consume queue can not write, {} {}", this.topic, this.queueId);this.defaultMessageStore.getRunningFlags().makeLogicsQueueError();
}
1.3.1 putMessagePositionInfo写入消息位置信息

将消息位置信息写入到ConsumeQueue文件中:

  1. 如果消息偏移量+消息大小小于等于ConsumeQueue已处理的最大物理偏移量, 说明该消息已经被写过了, 返回true。
  2. 将消息信息offset、size、tagsCode按照顺序存入临时缓冲区byteBufferIndex中。
  3. 调用getLastMappedFile方法, 根据偏移量获取将要写入的最新ConsumeQueue文件的MappedFile。
  4. 进行一系列校验, 例如是否需要重设索引信息, 是否存在写入错误等等。
  5. 更新消息最大物理偏移量maxPhysicOffset = 消息在CommitLog中的物理偏移量 + 消息的大小。
  6. 调用MappedFile#appendMessage方法将临时缓冲区中的索引信息追加到mappedFile的mappedByteBuffer中, 并且更新wrotePosition的位置信息。

8B的offset+4B的size+8BtagsCode, offset: 消息在CommitLog中的物理偏移量。size: 消息大小。tagsCode: 延迟消息就是消息投递时间, 其他消息就是消息的tags的hashCode。

/*** 写入消息位置信息到ConsumeQueue中** @param offset   消息在CommitLog中的物理偏移量* @param size     消息大小* @param tagsCode 消息tagsCode,延迟消息就是消息投递时间,其他消息就是消息的tags的hashCode* @param cqOffset 消息在消息消费队列的偏移量*/
private boolean putMessagePositionInfo(final long offset, final int size, final long tagsCode,final long cqOffset) {//如果消息偏移量+消息大小 小于等于ConsumeQueue已处理的最大物理偏移量//说明该消息已经被写过了,直接返回trueif (offset + size <= this.maxPhysicOffset) {log.warn("Maybe try to build consume queue repeatedly maxPhysicOffset={} phyOffset={}", maxPhysicOffset, offset);return true;}/** 将消息信息offset、size、tagsCode按照顺序存入临时缓冲区byteBufferIndex中*///position指针移到缓冲区头部this.byteBufferIndex.flip();//缓冲区的限制20Bthis.byteBufferIndex.limit(CQ_STORE_UNIT_SIZE);//存入8个字节长度的offset,消息在CommitLog中的物理偏移量this.byteBufferIndex.putLong(offset);//存入4个字节长度的size,消息大小this.byteBufferIndex.putInt(size);//存入8个字节长度的tagsCode,延迟消息就是消息投递时间,其他消息就是消息的tags的hashCodethis.byteBufferIndex.putLong(tagsCode);//已存在索引数据的最大预计偏移量final long expectLogicOffset = cqOffset * CQ_STORE_UNIT_SIZE;/** 根据偏移量获取将要写入的最新ConsumeQueue文件的MappedFile,可能会新建ConsumeQueue文件*/MappedFile mappedFile = this.mappedFileQueue.getLastMappedFile(expectLogicOffset);if (mappedFile != null) {//如果mappedFile是第一个创建的消费队列,并且消息在消费队列的偏移量不为0,并且消费队列写入指针为0//那么表示消费索引数据错误,需要重设索引信息if (mappedFile.isFirstCreateInQueue() && cqOffset != 0 && mappedFile.getWrotePosition() == 0) {//设置最小偏移量为预计偏移量this.minLogicOffset = expectLogicOffset;//设置刷盘最新位置,提交的最新位置this.mappedFileQueue.setFlushedWhere(expectLogicOffset);this.mappedFileQueue.setCommittedWhere(expectLogicOffset);//对该ConsumeQueue文件expectLogicOffset之前的位置填充前导0this.fillPreBlank(mappedFile, expectLogicOffset);log.info("fill pre blank space " + mappedFile.getFileName() + " " + expectLogicOffset + " "+ mappedFile.getWrotePosition());}//如果消息在消费队列的偏移量不为0,即此前有数据if (cqOffset != 0) {//获取当前ConsumeQueue文件最新已写入物理偏移量long currentLogicOffset = mappedFile.getWrotePosition() + mappedFile.getFileFromOffset();//最新已写入物理偏移量大于预期偏移量,那么表示重复构建消费队列if (expectLogicOffset < currentLogicOffset) {log.warn("Build  consume queue repeatedly, expectLogicOffset: {} currentLogicOffset: {} Topic: {} QID: {} Diff: {}",expectLogicOffset, currentLogicOffset, this.topic, this.queueId, expectLogicOffset - currentLogicOffset);return true;}//如果不相等,表示存在写入错误,正常情况下,两个值应该相等,因为一个索引条目固定大小20Bif (expectLogicOffset != currentLogicOffset) {LOG_ERROR.warn("[BUG]logic queue order maybe wrong, expectLogicOffset: {} currentLogicOffset: {} Topic: {} QID: {} Diff: {}",expectLogicOffset,currentLogicOffset,this.topic,this.queueId,expectLogicOffset - currentLogicOffset);}}//更新消息最大物理偏移量 = 消息在CommitLog中的物理偏移量 + 消息的大小this.maxPhysicOffset = offset + size;/** 将临时缓冲区中的索引信息追加到mappedFile的mappedByteBuffer中,并且更新wrotePosition的位置信息,到此构建ComsumeQueue完毕*/return mappedFile.appendMessage(this.byteBufferIndex.array());}return false;
}
1.3.2 MappedFile#appendMessage追加消息

该方法用于将数据追加到MappedFile, 追加到对应的mappedByteBuffer中, 基于mmap技术仅仅是将数据写入pageCache中, 没有立即刷盘, 依靠操作系统判断刷盘, 保证写入的高可用。

/*** MappedFile的方法* <p>* 追加消息** @param data 追加的数据*/
public boolean appendMessage(final byte[] data) {//获取写入位置int currentPos = this.wrotePosition.get();//如果当前位置加上消息大小小于等于文件大小,那么将消息写入mappedByteBufferif ((currentPos + data.length) <= this.fileSize) {try {//消息写入mappedByteBuffer即可,并没有执行刷盘ByteBuffer buf = this.mappedByteBuffer.slice();buf.position(currentPos);buf.put(data);} catch (Throwable e) {log.error("Error occurred when append message to mappedFile.", e);}//更新写入位置this.wrotePosition.addAndGet(data.length);return true;}return false;
}

2.CommitLogDispatcherBuildIndex构建IndexFile

接收分发请求并构建IndexFile。判断是否支持消息Index, 调用IndexService#buildIndex方法构建, 不存在则不构建, Index文件是否存在都不影响RocketMQ的正常运行, 提高根据keys或者时间范围查询消息的效率。

/*** DefaultMessageStore的方法* 写入消息位置信息到IndexFile** @param request 分派消息请求*/
@Override
public void dispatch(DispatchRequest request) {//是否支持IndexFile,默认trueif (DefaultMessageStore.this.messageStoreConfig.isMessageIndexEnable()) {//构建IndexDefaultMessageStore.this.indexService.buildIndex(request);}
}

2.1 buildIndex构建Index索引

  1. 通过retryGetAndCreateIndexFile方法获取或创建最新索引文件IndexFile, 最多重试3次。
  2. 判断当前消息在commitlog中的偏移量小于该文件的结束索引在commitlog中的偏移量, 表示已为该消息构建Index索引, 直接返回。如果该消息是事务回滚消息, 同样直接返回, 不创建索引。
  3. 获取客户端生成的uniqId, 也叫msgId, 代表客户端生成的唯一一条消息, 如果uniqId不为null的话, 调用putKey()为uniqId创建索引。
  4. 获取客户端传递的keys, 如果keys不是空, 那么调用putKey方法为keys中的每一个key构建索引。
/*** IndexService的方法* <p>* 构建Index索引*/
public void buildIndex(DispatchRequest req) {/** 获取或创建最新索引文件,支持重试最多3次*/IndexFile indexFile = retryGetAndCreateIndexFile();if (indexFile != null) {//获取结束物理索引long endPhyOffset = indexFile.getEndPhyOffset();DispatchRequest msg = req;//获取topic和keysString topic = msg.getTopic();String keys = msg.getKeys();//如果消息在commitlog中的偏移量小于该文件的结束索引在commitlog中的偏移量,那么表示已为该消息之后的消息构建Index索引//此时直接返回,不需要创建索引if (msg.getCommitLogOffset() < endPhyOffset) {return;}//获取该消息的事务类型final int tranType = MessageSysFlag.getTransactionValue(msg.getSysFlag());switch (tranType) {case MessageSysFlag.TRANSACTION_NOT_TYPE:case MessageSysFlag.TRANSACTION_PREPARED_TYPE:case MessageSysFlag.TRANSACTION_COMMIT_TYPE:break;//如果是事务回滚消息,则直接返回,不需要创建索引case MessageSysFlag.TRANSACTION_ROLLBACK_TYPE:return;}//获取客户端生成的uniqId,也被称为msgId,从逻辑上代表客户端生成的唯一一条消息//如果uniqId不为null,那么为uniqId构建索引if (req.getUniqKey() != null) {indexFile = putKey(indexFile, msg, buildKey(topic, req.getUniqKey()));if (indexFile == null) {log.error("putKey error commitlog {} uniqkey {}", req.getCommitLogOffset(), req.getUniqKey());return;}}//获取客户端传递的keys//如果keys不为空,那么为keys中的每一个key构建索引if (keys != null && keys.length() > 0) {//按照空格拆分keyString[] keyset = keys.split(MessageConst.KEY_SEPARATOR);//为keys中的每一个key构建索引for (int i = 0; i < keyset.length; i++) {String key = keyset[i];if (key.length() > 0) {indexFile = putKey(indexFile, msg, buildKey(topic, key));if (indexFile == null) {log.error("putKey error commitlog {} uniqkey {}", req.getCommitLogOffset(), req.getUniqKey());return;}}}}} else {log.error("build index error, stop building index");}
}
2.1.1 retryGetAndCreateIndexFile获取IndexFile

该方法用于获取或创建索引文件, 支持重试, 最多循环3次, 循环中调用getAndCreateLastIndexFile方法获取最新索引文件, 如果文件写满了或者没有文件, 则自动创建文件。

/*** IndexService的方法* <p>* 获取或创建索引文件,支持重试*/
public IndexFile retryGetAndCreateIndexFile() {IndexFile indexFile = null;//循环尝试,尝试创建索引文件的最大次数为3for (int times = 0; null == indexFile && times < MAX_TRY_IDX_CREATE; times++) {//获取最新的索引文件,如果文件写满了或者还没有文件则会自动创建新的索引文件indexFile = this.getAndCreateLastIndexFile();//如果获取的indexFile不为null,那么退出循环if (null != indexFile)break;try {log.info("Tried to create index file " + times + " times");Thread.sleep(1000);} catch (InterruptedException e) {log.error("Interrupted", e);}}//标记indexFile异常if (null == indexFile) {this.defaultMessageStore.getAccessRights().makeIndexFileError();log.error("Mark index file cannot build flag");}return indexFile;
}
2.1.2 getAndCreateLastIndexFile获取最新索引文件

获取最新IndexFile, 如果文件写满了或者还没有文件则会自动创建新的索引文件。

  1. 获取读锁。
    1. 如果indexFileList不为空, 重试获取最后的indexFile, 否则创建一个新的。
    2. 如果最后一个indexFile没写满, 赋值给indexFile。
    3. 如果最后一个IndexFile写满了, 创建新文件, 获取目前最后一个文件的endPhyOffset, endTimestamp等信息。
  2. 如果上一步没有获取到indexFile, 创建新的IndexFile。
    1. 获取完整文件名 $HOME/store/index${fileName}。fileName是以创建时的时间戳命名的。
    2. 调用IndexFile的构造器创建新的IndexFile。
    3. 获取写锁, 将新建的IndexFile加入indexFileList, 释放写锁。
    4. 创建新文件后, 尝试将上一个文件刷盘。
  3. 返回获取的indexFile。
/*** IndexService的方法* <p>* 获取最新的索引文件,如果文件写满了或者还没有文件则会自动创建新的索引文件*/
public IndexFile getAndCreateLastIndexFile() {IndexFile indexFile = null;IndexFile prevIndexFile = null;long lastUpdateEndPhyOffset = 0;long lastUpdateIndexTimestamp = 0;/** 尝试获取最新IndexFile*/{//尝试获取读锁this.readWriteLock.readLock().lock();//如果indexFileList不为空if (!this.indexFileList.isEmpty()) {//尝试获取最后一个IndexFileIndexFile tmp = this.indexFileList.get(this.indexFileList.size() - 1);if (!tmp.isWriteFull()) {//如果最后一个IndexFile没写满,则赋值给indexFileindexFile = tmp;} else {//如果最后一个IndexFile写满了,则创建新文件//获取目前最后一个文件的endPhyOffsetlastUpdateEndPhyOffset = tmp.getEndPhyOffset();//获取目前最后一个文件的endTimestamplastUpdateIndexTimestamp = tmp.getEndTimestamp();//赋值给prevIndexFileprevIndexFile = tmp;}}this.readWriteLock.readLock().unlock();}/** 尝试创建一个新的IndexFile*/if (indexFile == null) {try {//获取完整文件名$HOME/store/index${fileName},fileName是以创建时的时间戳命名的,精确到毫秒String fileName =this.storePath + File.separator+ UtilAll.timeMillisToHumanString(System.currentTimeMillis());//创建IndexFileindexFile =new IndexFile(fileName, this.hashSlotNum, this.indexNum, lastUpdateEndPhyOffset,lastUpdateIndexTimestamp);//获取写锁this.readWriteLock.writeLock().lock();//加入到indexFileList集合中this.indexFileList.add(indexFile);} catch (Exception e) {log.error("getLastIndexFile exception ", e);} finally {//释放写锁this.readWriteLock.writeLock().unlock();}/** 创建了新的文件之后,尝试将上一个文件刷盘*/if (indexFile != null) {final IndexFile flushThisFile = prevIndexFile;/** 新开一个线程,异步的对上一个IndexFile文件刷盘*/Thread flushThread = new Thread(new Runnable() {@Overridepublic void run() {IndexService.this.flush(flushThisFile);}}, "FlushIndexFileThread");flushThread.setDaemon(true);flushThread.start();}}return indexFile;
}
2.1.3 创建IndexFile

第一次构建Index或者之前的IndexFile写满了的时候, 创建新的IndexFile。IndexFile文件大小约为
40B 头数据indexHeader + 500w * 4B hashslot + 2000w * 20B index = 420000040B: 400M大小。

/*** 创建IndexFile** @param fileName     文件名* @param hashSlotNum  哈希槽数量,默认5000000* @param indexNum     索引数量默认,默认5000000 * 4* @param endPhyOffset 上一个文件的endPhyOffset* @param endTimestamp 上一个文件的endTimestamp* @throws IOException*/
public IndexFile(final String fileName, final int hashSlotNum, final int indexNum,final long endPhyOffset, final long endTimestamp) throws IOException {//文件大小,默认约400M左右//40B 头数据 + 500w * 4B hashslot + 2000w * 20B indexint fileTotalSize =IndexHeader.INDEX_HEADER_SIZE + (hashSlotNum * hashSlotSize) + (indexNum * indexSize);//构建mappedFilethis.mappedFile = new MappedFile(fileName, fileTotalSize);this.fileChannel = this.mappedFile.getFileChannel();this.mappedByteBuffer = this.mappedFile.getMappedByteBuffer();this.hashSlotNum = hashSlotNum;this.indexNum = indexNum;//生成DirectByteBuffer,对该buffer写操作会被反映到文件里面ByteBuffer byteBuffer = this.mappedByteBuffer.slice();//获取indexHeaderthis.indexHeader = new IndexHeader(byteBuffer);//设置新文件的起始物理索引和结束物理索引都为上一个文件的结束物理索引if (endPhyOffset > 0) {this.indexHeader.setBeginPhyOffset(endPhyOffset);this.indexHeader.setEndPhyOffset(endPhyOffset);}//设置新文件的起始时间戳和结束时间戳都为上一个文件的结束时间戳if (endTimestamp > 0) {this.indexHeader.setBeginTimestamp(endTimestamp);this.indexHeader.setEndTimestamp(endTimestamp);}
}
2.1.4 buildKey构建Key

构建Index索引的key, RocketMQ将会为uniqId和keys中的每个key构建索引。

UniqKey将会转换为topic#UniqKey, 而keys则会先通过空格拆分, 然后将每个key转换为topic#key。

/*** IndexService的方法* 构建key*/
private String buildKey(final String topic, final String key) {//拼接return topic + "#" + key;
}
2.1.5 putKey构建Index索引

IndexFile文件大约400M, 一个IndexFile文件可以保存2000W个索引, IndexFile底层是HashMap结构, 故RocketMQ的索引文件底层实现为hash索引。

putKey方法循环调用indexFile#putKey方法构建Index索引, 每次构建失败都将调用retryGetAndCreateIndexFile方法尝试获取或创建最新索引文件然后再尝试构建。

  1. 判断如果当前文件的index索引数量小于2000w, 则表明当前文件还可以继续构建索引。
  2. 计算Key的哈希值keyHash, 通过 哈希值keyHash & hash槽数量hashSlotNum获取key对应的hash槽的下标slotPos, 计算该消息的绝对hash槽偏移量 absSlotPos = 40B + slotPos * 4B。
  3. 计算当前消息在commitlog中的消息存储时间与该Index文件起始时间差timeDiff, 计算该消息的索引存放位置的绝对偏移量absIndexPos = 40B + 500w * 4B + indexCount * 20B。
  4. 在absIndexPos位置顺序存放Index索引数据, 大小为20B, 存入4B的当前消息的Key的哈希值, 存入8B的当前消息在commitlog中的物理偏移量, 存入4B的当前消息在commitlog中的消息存储时间与该Index文件起始时间差, 存入4B的slotValue, 可更新当前hash槽的值为最新的IndexFile的索引条目计数的编号。
  5. 在absSlotPos位置更新当前hash槽的值为最新的IndexFile的索引条目计数的编号, 为当前索引存入的编号。
  6. 判断如果索引数量小于等于1, 说明时该文件第一次存入索引, 初始化beginPhyOffset和beginTimestamp。
  7. 判断如果slotValue为0, 则为一个新槽, hashSlotCount + 1。
  8. 索引条目计数indexCount自增1, 设置新的endPhyOffset和endTimestamp。
/*** IndexService的方法* <p>* 构建Index索引** @param indexFile indexFile* @param msg       消息* @param idxKey    key*/
private IndexFile putKey(IndexFile indexFile, DispatchRequest msg, String idxKey) {//循环尝试构建Index索引for (boolean ok = indexFile.putKey(idxKey, msg.getCommitLogOffset(), msg.getStoreTimestamp()); !ok; ) {log.warn("Index file [" + indexFile.getFileName() + "] is full, trying to create another one");//构建失败,则尝试获取或创建最新索引文件,支持重试indexFile = retryGetAndCreateIndexFile();if (null == indexFile) {return null;}//再次尝试构建Index索引ok = indexFile.putKey(idxKey, msg.getCommitLogOffset(), msg.getStoreTimestamp());}return indexFile;
}/*** IndexFile的方法* <p>* 构建Index索引** @param key            key* @param phyOffset      当前消息在commitlog中的物理偏移量* @param storeTimestamp 当前消息在commitlog中的消息存储时间* @return*/
public boolean putKey(final String key, final long phyOffset, final long storeTimestamp) {//如果当前文件的index索引数量小于2000w,则表明当前文件还可以继续构建索引if (this.indexHeader.getIndexCount() < this.indexNum) {//计算Key的哈希值int keyHash = indexKeyHashMethod(key);//通过 哈希值 & hash槽数量 的方式获取当前key对应的hash槽下标位置,hashSlotNum默认为5000wint slotPos = keyHash % this.hashSlotNum;//计算该消息的绝对hash槽偏移量 absSlotPos = 40B + slotPos * 4Bint absSlotPos = IndexHeader.INDEX_HEADER_SIZE + slotPos * hashSlotSize;FileLock fileLock = null;try {// fileLock = this.fileChannel.lock(absSlotPos, hashSlotSize,// false);//获取当前hash槽的值,一个hash槽大小为4Bint slotValue = this.mappedByteBuffer.getInt(absSlotPos);//如果值不为0说明这个hash key已经存在,即存在hash冲突if (slotValue <= invalidIndex || slotValue > this.indexHeader.getIndexCount()) {slotValue = invalidIndex;}//当前消息在commitlog中的消息存储时间与该Index文件起始时间差long timeDiff = storeTimestamp - this.indexHeader.getBeginTimestamp();timeDiff = timeDiff / 1000;if (this.indexHeader.getBeginTimestamp() <= 0) {timeDiff = 0;} else if (timeDiff > Integer.MAX_VALUE) {timeDiff = Integer.MAX_VALUE;} else if (timeDiff < 0) {timeDiff = 0;}//获取该消息的索引存放位置的绝对偏移量 absIndexPos = 40B + 500w * 4B + indexCount * 20Bint absIndexPos =IndexHeader.INDEX_HEADER_SIZE + this.hashSlotNum * hashSlotSize+ this.indexHeader.getIndexCount() * indexSize;//存入4B的当前消息的Key的哈希值this.mappedByteBuffer.putInt(absIndexPos, keyHash);//存入8B的当前消息在commitlog中的物理偏移量this.mappedByteBuffer.putLong(absIndexPos + 4, phyOffset);//存入4B的当前消息在commitlog中的消息存储时间与该Index文件起始时间差this.mappedByteBuffer.putInt(absIndexPos + 4 + 8, (int) timeDiff);//存入4B的slotValue,即前面读出来的 slotValue,可能是0,也可能不是0,而是上一个发生hash冲突的索引条目的编号this.mappedByteBuffer.putInt(absIndexPos + 4 + 8 + 4, slotValue);//更新当前hash槽的值为最新的IndexFile的索引条目计数的编号,也就是当前索引存入的编号this.mappedByteBuffer.putInt(absSlotPos, this.indexHeader.getIndexCount());/** 从存入的数据可以看出来:* IndexFile采用用slotValue字段将所有冲突的索引用链表的方式串起来了,而哈希槽SlotTable并不保存真正的索引数据,* 而是保存每个槽位对应的单向链表的头,即可以看作是头插法插入数据*///如果索引数量小于等于1,说明时该文件第一次存入索引,那么初始化beginPhyOffset和beginTimestampif (this.indexHeader.getIndexCount() <= 1) {this.indexHeader.setBeginPhyOffset(phyOffset);this.indexHeader.setBeginTimestamp(storeTimestamp);}//如果slotValue为0,那么表示采用了一个新的哈希槽,此时hashSlotCount自增1if (invalidIndex == slotValue) {this.indexHeader.incHashSlotCount();}//因为存入了新的索引,那么索引条目计数indexCount自增1this.indexHeader.incIndexCount();//设置endPhyOffset和endTimestampthis.indexHeader.setEndPhyOffset(phyOffset);this.indexHeader.setEndTimestamp(storeTimestamp);return true;} catch (Exception e) {log.error("putKey exception, Key: " + key + " KeyHashCode: " + key.hashCode(), e);} finally {if (fileLock != null) {try {fileLock.release();} catch (IOException e) {log.error("Failed to release the lock", e);}}}} else {log.warn("Over index file capacity: index count = " + this.indexHeader.getIndexCount()+ "; index max num = " + this.indexNum);}return false;
}

3.总结

在这里插入图片描述

在这里插入图片描述

IndexFile的构成包括40B的Header头信息, 4 x 500wB的Slot信息, 20 x 2000wB的Index信息

  1. Header: java为IndexHeader, 8B的的beginTimestamp, 8B的endTimestamp, 8B的beginPhyOffset, 8B的endPhyOffset, 4B的hashSlotCount 哈希槽计数, 4B的indexCount 索引条目计数。

  2. slot Table并不保存真正的索引数据, 存储的是每个槽位对应的单向链表的头。即最新消息的索引条目计数的编号indexCount。

  3. 索引信息: 4B的Key Hash, Key的哈希值。8B的CommitLog Offset, 当前消息在commitlog中的物理偏移量。4B的Timestamp, 当前消息在commitlog中的消息存储时间与该Index文件起始时间差。4B的NextIndex offset, 链表的下一个索引的Index位置。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/28652.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

flutter开发实战-卡片翻转动画效果Transform+IndexedStack+rotateAnimation

flutter开发实战-实现卡片翻转动画效果 之前开发中遇到了商品卡片翻转&#xff0c;商品正面是商品图片、商品名称&#xff1b;背面是商品价格&#xff0c;需要做卡片翻转动画。 动画实现即&#xff1a;在一段时间内&#xff0c;快速地多次改变UI外观&#xff1b;由于人眼会产生…

单例模式、指令重排序、锁、有序性

今天在回顾单例模式时&#xff0c;我们都知道懒汉式单例中有一种叫做双重检查锁的单例模式。 我们来看下下面的代码有没有问题&#xff1a; 这段代码我们可以看到&#xff0c;即优化了性能&#xff0c;在多线程情况下&#xff0c;如果实例不为空了&#xff0c;则直接返回了。…

[element-ui] el-select,虚拟滚动(vue-virtual-scroll-list)

一、问题描述 表单中某下拉框&#xff0c;由于数据过多&#xff0c;选择的时候会因为数据量过大导致页面卡顿&#xff0c;于是对于el-select进行二次封装&#xff0c;实现虚拟滚动。 二、实现如下&#xff1a; 看起来是加载了全部数据&#xff0c;实际上只加载了自己设定的1…

无需学习Python,一个公式搞定领导想看的大屏

摘要&#xff1a;本文由葡萄城技术团队于CSDN原创并首发。转载请注明出处&#xff1a;葡萄城官网&#xff0c;葡萄城为开发者提供专业的开发工具、解决方案和服务&#xff0c;赋能开发者。 不要让“做不了”成为数字化转型的障碍 随着数字化的脚步加快&#xff0c;越来越多的企…

Spring Batch之读数据库—JdbcCursorItemReader之自定义PreparedStatementSetter(三十八)

一、自定义PreparedStatementSetter 详情参考我的另一篇博客&#xff1a; Spring Batch之读数据库——JdbcCursorItemReader&#xff08;三十五&#xff09;_人……杰的博客-CSDN博客 二、项目实例 1.项目实例 2.代码实现 BatchMain.java&#xff1a; package com.xj.dem…

制作Visual Studio离线安装包

vs2015之后官网就不提供离线安装包了&#xff0c;使用离线安装包就需要自己手动制作一个&#xff1b; 以vs2019为例&#xff1a; 先去官网下载在线安装器 官网下载地址&#xff1a;Visual Studio 较旧的下载 - 2019、2017、2015 和以前的版本 (microsoft.com) 展开2019的标签…

从小白到大神之路之学习运维第62天--------Ansible自动化运维工具(playbook配置深入了解2.0)

第三阶段基础 时 间&#xff1a;2023年7月17日 参加人&#xff1a;全班人员 内 容&#xff1a; playbook配置深入了解2.0 目录 一、角色 实验案例&#xff1a;&#xff08;安装Mariadb&#xff09; 二、变量 &#xff08;一&#xff09;在playbook中使用自定义变量&#xff1…

STM32芯片型号命名规则

意法半导体STM32和STM8系列的芯片可以通过下面一张图来确定芯片的各项参数&#xff0c;帮助选型。 STM32型号的说明&#xff1a;以STM32F103RBT6这个型号的芯片为例&#xff0c;该型号的组成为7个部分&#xff0c;其命名规则如下&#xff1a; ![在这里插入图片描述](https:…

文心一言 VS 讯飞星火 VS chatgpt (61)-- 算法导论6.4 5题

文心一言 VS 讯飞星火 VS chatgpt &#xff08;61&#xff09;-- 算法导论6.4 5题 五、证明:在所有元素都不同的情况下&#xff0c;HEAPSORT 的时间复杂度是 Ω (nlgn)。 文心一言&#xff1a; 要证明在所有元素都不同的情况下&#xff0c;HEAPSORT 的时间复杂度是 Ω(n log…

青岛大学_王卓老师【数据结构与算法】Week05_14_队列的顺序表示和实现2_学习笔记

本文是个人学习笔记&#xff0c;素材来自青岛大学王卓老师的教学视频。 一方面用于学习记录与分享&#xff0c; 另一方面是想让更多的人看到这么好的《数据结构与算法》的学习视频。 如有侵权&#xff0c;请留言作删文处理。 课程视频链接&#xff1a; 数据结构与算法基础…

科研创新服务平台性能分析案例

前言 信息中心老师反应&#xff0c;用户反馈科研创新服务器平台有访问慢的情况&#xff0c;需要通过流量分析系统来了解系统的运行情况&#xff0c;此报告专门针对系统的性能数据做了分析。 信息中心已部署NetInside流量分析系统&#xff0c;使用流量分析系统提供实时和历史原…

走进人工智能|机器人技术 人机协作新纪元

前言&#xff1a; 机器人技术为人类提供协助、增强生产力&#xff0c;改善生活质量&#xff0c;并推动科技进步和社会发展。 文章目录 序言背景核心技术支持人机协作新纪元目前形式领跑人困难和挑战 总结 机器人技术作为现代科技领域的重要研究方向&#xff0c;已经在各个领域展…